7 Mal ging maschinelles Lernen schief

7 Mal ging maschinelles Lernen schief
Leser wie Sie helfen, MUO zu unterstützen. Wenn Sie über Links auf unserer Website einen Kauf tätigen, erhalten wir möglicherweise eine Affiliate-Provision. Weiterlesen.

Maschinelles Lernen ist eine großartige Möglichkeit, künstliche Intelligenz zu schaffen, die leistungsstark ist und sich an ihre Trainingsdaten anpasst. Aber manchmal können diese Daten Probleme verursachen. In anderen Fällen ist die Art und Weise, wie Menschen diese KI-Tools verwenden, das Problem.





Hier ist ein Blick auf einige hochkarätige Vorfälle, bei denen maschinelles Lernen zu problematischen Ergebnissen führte.





MAKEUSEOF VIDEO DES TAGES SCROLLEN SIE, UM MIT DEM INHALT FORTZUFAHREN

1. Pannen bei den Ergebnissen der Google-Bildsuche

  google-bildersuche-ergebnisse-kontroversen

Die Google-Suche hat die Navigation im Web erheblich vereinfacht. Der Algorithmus der Engine berücksichtigt eine Vielzahl von Dingen, wenn er Ergebnisse aufwirbelt. Der Algorithmus lernt aber auch aus dem Nutzerverkehr, was Probleme für die Qualität der Suchergebnisse verursachen kann.





Nirgendwo wird dies deutlicher als in Bildergebnissen. Da Seiten, die viel Verkehr erhalten, mit größerer Wahrscheinlichkeit ihre Bilder anzeigen, können Geschichten, die eine große Anzahl von Benutzern anziehen, einschließlich Clickbait, priorisiert werden.

Zum Beispiel sorgten die Ergebnisse der Bildsuche für 'Squatter Camps in South Africa' ​​für Kontroversen, als festgestellt wurde, dass es sich überwiegend um weiße Südafrikaner handelte. Und das, obwohl Statistiken zeigen, dass die überwältigende Mehrheit der Menschen, die in informellen Unterkünften leben, schwarze Südafrikaner sind.



Die im Algorithmus von Google verwendeten Faktoren bedeuten auch, dass Internetnutzer Ergebnisse manipulieren können. Beispielsweise beeinflusste eine Kampagne von Nutzern die Ergebnisse der Google Bildersuche dahingehend, dass bei der Suche nach dem Begriff „Idiot“ zeitweise Bilder des ehemaligen US-Präsidenten Donald Trump angezeigt wurden.

2. Microsoft Bot Tay wurde zum Nazi





KI-gestützte Chatbots sind äußerst beliebt, insbesondere solche, die von großen Sprachmodellen wie ChatGPT unterstützt werden. ChatGPT hat mehrere Probleme , aber seine Macher haben auch aus den Fehlern anderer Unternehmen gelernt.

Einer der aufsehenerregendsten Vorfälle von Chatbots, die schief gelaufen sind, war der Versuch von Microsoft, seinen Chatbot Tay auf den Markt zu bringen.





Tay ahmte die Sprachmuster eines Teenagers nach und lernte durch ihre Interaktionen mit anderen Twitter-Nutzern. Sie wurde jedoch zu einem der berüchtigtsten KI-Fehltritte, als sie anfing, Nazi-Aussagen und rassistische Beleidigungen zu teilen. Es stellte sich heraus, dass Trolle das maschinelle Lernen der KI dagegen eingesetzt und es mit Interaktionen voller Bigotterie überflutet hatten.

Nicht lange danach nahm Microsoft Tay für immer offline.

3. KI-Gesichtserkennungsprobleme

Gesichtserkennungs-KI macht oft Schlagzeilen aus den falschen Gründen, wie zum Beispiel Geschichten über Gesichtserkennung und Datenschutzbedenken. Aber diese KI hat eine problematische Geschichte, wenn sie versucht, Farbige zu erkennen.

Im Jahr 2015 entdeckten Nutzer, dass Google Fotos einige Schwarze als Gorillas kategorisierte. Im Jahr 2018 zeigten Untersuchungen der ACLU, dass die Gesichtserkennungssoftware Rekognition von Amazon 28 Mitglieder des US-Kongresses als Polizeiverdächtige identifizierte, wobei Farbige überproportional von Fehlalarmen betroffen waren.

Ein weiterer Vorfall betraf die Face ID-Software von Apple, die zwei verschiedene chinesische Frauen fälschlicherweise als dieselbe Person identifizierte. Infolgedessen konnte der Kollege des iPhone X-Besitzers das Telefon entsperren.

In einem Beispiel mit extremen Folgen hat die Gesichtserkennungs-KI zur unrechtmäßigen Verhaftung mehrerer Personen geführt. Verdrahtet berichtete über drei solcher Fälle.

In der Zwischenzeit erinnerte sich die Informatikerin Joy Buolamwini daran, dass sie bei der Arbeit an der Gesichtserkennungstechnologie oft eine weiße Maske tragen musste, damit die Software sie erkennt. Um solche Probleme zu lösen, lenken Buolamwini und andere IT-Experten die Aufmerksamkeit auf das Problem der KI-Voreingenommenheit und die Notwendigkeit umfassenderer Datensätze.

4. Für Hoaxes verwendete Deepfakes

Während Photoshop schon seit langem zum Erstellen von Scherzbildern verwendet wird, bringt maschinelles Lernen dies auf eine neue Ebene. Deepfakes verwenden Deep-Learning-KI, um gefälschte Bilder und Videos zu erstellen . Mit Software wie FaceApp können Sie Motive von einem Video in ein anderes tauschen.

Aber viele Menschen nutzen die Software für eine Vielzahl von böswilligen Zwecken aus, darunter das Einblenden von Gesichtern von Prominenten in Videos für Erwachsene oder das Erstellen von Scherzvideos. Inzwischen haben Internetnutzer dazu beigetragen, die Technologie zu verbessern, damit es immer schwieriger wird, echte Videos von gefälschten zu unterscheiden. Dies macht diese Art von KI im Hinblick auf die Verbreitung von Fake News und Hoaxes sehr mächtig.

Um die Leistungsfähigkeit der Technologie zu demonstrieren, erstellten Regisseur Jordan Peele und Jonah Peretti, CEO von BuzzFeed, ein Deepfake-Video, in dem zu sehen ist, wie der frühere US-Präsident Barack Obama eine PSA über die Leistungsfähigkeit von Deepfakes liefert.

Die Macht gefälschter Bilder wurde durch Bildgeneratoren beschleunigt, die von KI unterstützt werden. Virale Beiträge im Jahr 2023, die die Verhaftung von Donald Trump und den katholischen Papst in einer Pufferjacke zeigten, erwiesen sich als Ergebnis generativer KI.

Es gibt Tipps, die Sie befolgen können, um ein KI-generiertes Bild zu erkennen , aber die Technik wird immer ausgefeilter.

5. Mitarbeiter sagen, dass Amazon AI entschieden hat, Männer einzustellen

Im Oktober 2018, Reuters berichtete, dass Amazon ein Job-Recruiting-Tool verwerfen musste, nachdem die KI der Software entschieden hatte, dass männliche Kandidaten bevorzugt wurden.

Mitarbeiter, die anonym bleiben wollten, meldeten sich, um Reuters von ihrer Arbeit an dem Projekt zu berichten. Die Entwickler wollten, dass die KI die besten Kandidaten für eine Stelle anhand ihrer Lebensläufe identifiziert. Allerdings bemerkten die Projektbeteiligten bald, dass die KI weibliche Kandidatinnen bestraft. Sie erklärten, dass die KI Lebensläufe aus dem letzten Jahrzehnt, von denen die meisten von Männern stammten, als Trainingsdatensatz verwendete.

Infolgedessen begann die KI, Lebensläufe basierend auf dem Schlüsselwort „Frauen“ herauszufiltern. Das Stichwort tauchte im Lebenslauf unter Tätigkeiten wie „Damenschachklubkapitän“ auf. Während die Entwickler die KI veränderten, um diese Benachteiligung der Lebensläufe von Frauen zu verhindern, verwarf Amazon das Projekt schließlich.

6. Jailbreak-Chatbots

Während neuere Chatbots Einschränkungen haben, um sie daran zu hindern, Antworten zu geben, die gegen ihre Nutzungsbedingungen verstoßen, finden Benutzer Möglichkeiten, die Tools zu jailbreaken, um verbotene Inhalte bereitzustellen.

Im Jahr 2023 konnte ein Sicherheitsforscher von Forcepoint, Aaron Mulgrew, mithilfe von ChatGPT-Eingabeaufforderungen Zero-Day-Malware erstellen.

„Indem wir einfach ChatGPT-Eingabeaufforderungen verwendeten und keinen Code schreiben mussten, konnten wir in nur wenigen Stunden einen sehr fortschrittlichen Angriff erstellen“, sagte Mulgrew in a Forcepoint-Beitrag .

Berichten zufolge konnten Benutzer auch Chatbots dazu bringen, ihnen Anweisungen zu geben, wie man Bomben baut oder Autos stiehlt.

7. Selbstfahrende Autounfälle

Die Begeisterung für autonome Fahrzeuge wurde von ihrer anfänglichen Hype-Phase durch Fehler der selbstfahrenden KI gedämpft. 2022, Die Washington Post berichteten, dass in etwa einem Jahr 392 Unfälle mit Fahrerassistenzsystemen der US-amerikanischen National Highway Traffic Safety Administration gemeldet wurden.

Diese Unfälle umfassten schwere Verletzungen und sechs Todesfälle.

kannst du macbook pro ram upgraden?

Dies hat zwar Unternehmen wie Tesla nicht davon abgehalten, vollständig autonome Fahrzeuge zu entwickeln, hat jedoch Bedenken hinsichtlich einer Zunahme von Unfällen geweckt, da immer mehr Autos mit selbstfahrender Software auf die Straße kommen.

Machine Learning AI ist nicht narrensicher

Während maschinelles Lernen leistungsstarke KI-Tools erstellen kann, sind sie nicht immun gegen schlechte Daten oder menschliche Manipulationen. Ob aufgrund fehlerhafter Trainingsdaten, Einschränkungen der KI-Technologie oder der Nutzung durch schlechte Akteure, diese Art von KI hat zu vielen negativen Vorfällen geführt.