KI-Inhaltsdetektoren funktionieren nicht, und das ist ein großes Problem

KI-Inhaltsdetektoren funktionieren nicht, und das ist ein großes Problem
Leser wie Sie unterstützen MUO. Wenn Sie über Links auf unserer Website einen Kauf tätigen, erhalten wir möglicherweise eine Affiliate-Provision. Weiterlesen.

Künstliche Intelligenz (KI) wird ganze Bereiche unserer Gesellschaft verändern, ob es uns gefällt oder nicht, und dazu gehört auch das World Wide Web.





Da Software wie ChatGPT jedem mit einer Internetverbindung zur Verfügung steht, wird es immer schwieriger, KI-generierte Inhalte von denen zu trennen, die von Menschen erstellt wurden. Gut, dass wir KI-Inhaltsdetektoren haben, oder?





MAKEUSEOF-VIDEO DES TAGES Scrollen Sie, um mit dem Inhalt fortzufahren

Funktionieren KI-Inhaltsdetektoren?

KI-Inhaltsdetektoren sind spezielle Werkzeuge, die feststellen, ob etwas von einem Computerprogramm oder einem Menschen geschrieben wurde. Wenn Sie einfach nach „KI-Inhaltsdetektor“ googeln, werden Sie sehen Es gibt Dutzende von Detektoren da draußen, die alle behaupten, sie könnten zuverlässig zwischen menschlichem und nichtmenschlichem Text unterscheiden.





Die Funktionsweise ist ziemlich einfach: Sie fügen eine Schrift ein und das Tool sagt Ihnen, ob sie von KI generiert wurde oder nicht. Technisch gesehen suchen KI-Inhaltsdetektoren mithilfe einer Kombination aus Techniken zur Verarbeitung natürlicher Sprache und Algorithmen für maschinelles Lernen nach Mustern und Vorhersagbarkeit und tätigen darauf basierende Anrufe.

Auf dem Papier klingt das großartig, aber wenn Sie jemals ein KI-Erkennungstool verwendet haben, wissen Sie, gelinde gesagt, sehr gut, dass es sich dabei um Zufall handelt. In den meisten Fällen erkennen sie von Menschen geschriebene Inhalte als KI oder von Menschen erstellte Texte als KI-generiert. Tatsächlich sind einige peinlich schlecht darin, was sie tun sollen.



Wie genau sind KI-Inhaltsdetektoren?

Wenn Sie sich in den USA befinden, ist das erste Google-Suchergebnis für „AI Content Detector“ write.com (früher bekannt als Qordoba; dabei handelt es sich um eine AI-Content-Plattform, die auch über einen eigenen Detektor verfügt). Aber wenn Sie einen Abschnitt davon einfügen, ist dies zufällig Associated Press In diesem Artikel heißt es, es bestehe eine sehr gute Chance, dass er durch künstliche Intelligenz generiert wurde.

  schriftsteller.com's AI content detector, screenshot

Writer.com hat also einen Fehler gemacht.





Fairerweise muss man sagen, dass andere KI-Inhaltsdetektoren kaum besser sind. Sie produzieren nicht nur falsch positive Ergebnisse, sondern markieren auch KI-Inhalte als menschlich. Und selbst wenn dies nicht der Fall ist, reichen kleine Änderungen am KI-generierten Text aus, um mit Bravour zu bestehen.

Im Februar 2023 testeten Armin Alimardani, Dozent an der University of Wollongong, und Emma A. Jane, außerordentliche Professorin an der UNSW Sydney, eine Reihe beliebter KI-Inhaltsdetektoren und stellten fest, dass keiner von ihnen zuverlässig ist. In ihrer Analyse, die veröffentlicht wurde in Die Unterhaltung Alimardani und Jane kamen zu dem Schluss, dass dieses KI-„Wettrüsten“ zwischen Textgeneratoren und -detektoren in Zukunft eine erhebliche Herausforderung darstellen wird, insbesondere für Pädagogen.

Aber nicht nur Pädagogen und Lehrer haben Grund zur Sorge: Jeder hat Grund zur Sorge. Da KI-generierter Text allgegenwärtig wird, ist die Fähigkeit, zwischen „echt“ und „echt“ zu unterscheiden, immer wichtiger. d. h. tatsächlich erkennen, wenn etwas von KI geschrieben wurde , wird schwieriger. Dies wird massive Auswirkungen auf praktisch alle Branchen und Bereiche der Gesellschaft haben, sogar auf persönliche Beziehungen.

Auswirkungen von KI auf Cybersicherheit und Datenschutz

Die Tatsache, dass es keine zuverlässigen Mechanismen gibt, um festzustellen, ob etwas durch Software oder einen Menschen erstellt wurde, hat schwerwiegende Auswirkungen auf die Cybersicherheit und den Datenschutz.

Bedrohungsakteure sind es bereits Verwenden von ChatGPT zum Schreiben von Malware , Phishing-E-Mails generieren, Spam schreiben, Betrugsseiten erstellen und mehr. Und obwohl es Möglichkeiten gibt, sich dagegen zu wehren, ist es sicherlich besorgniserregend, dass es keine Software gibt, die zuverlässig zwischen organischen und Bot-Inhalten unterscheiden kann.

Auch Fake News sind bereits jetzt ein massives Problem. Mit generativer KI sind Desinformationsagenten in der Lage, ihre Operationen auf beispiellose Weise zu skalieren. Ein normaler Mensch hingegen hat keine Möglichkeit zu wissen, ob etwas, das er online liest, von einer Software oder einem Menschen erstellt wurde.

Datenschutz ist eine ganz andere Sache. Nehmen Sie zum Beispiel ChatGPT. Es war mehr als 300 Milliarden Wörter gefüttert vor seinem Start. Dieser Inhalt wurde aus Büchern, Blog- und Forenbeiträgen, Artikeln und sozialen Medien entfernt. Die Daten wurden ohne Zustimmung von irgendjemandem und scheinbar unter völliger Missachtung von Datenschutz- und Urheberrechtsschutzdaten gesammelt.

Dann gibt es noch das Problem der Fehlalarme. Wenn Inhalte fälschlicherweise als KI-generiert gekennzeichnet werden, könnte das nicht zu Zensur führen, was ohnehin ein großes Problem darstellt? Ganz zu schweigen von dem Schaden, der dem Ruf eines Menschen schaden könnte, wenn ihm die Verwendung von KI-erstellten Texten vorgeworfen wird, sowohl online als auch im wirklichen Leben.

Wenn es tatsächlich ein Wettrüsten zwischen generativer KI und Inhaltsdetektoren gibt, gewinnt erstere. Was noch schlimmer ist: Es scheint keine Lösung zu geben. Wir haben nur unsere halbgebackenen Produkte, die nicht einmal in der Hälfte der Zeit funktionieren oder sehr leicht ausgetrickst werden können.

So erkennen Sie KI-Inhalte: Mögliche Lösungen

Dass wir derzeit scheinbar keine wirklichen Antworten auf dieses Problem haben, bedeutet nicht, dass wir auch in Zukunft keine haben werden. Tatsächlich gibt es bereits mehrere ernsthafte Vorschläge, die funktionieren könnten. Wasserzeichen ist eine davon.

Wenn es um KI und Deep-Language-Modelle geht, bezieht sich Wasserzeichen auf die Einbettung einer Art Geheimcode in KI-generierten Text (z. B. Wortmuster, Satzzeichenstil). Ein solches Wasserzeichen wäre für das bloße Auge unsichtbar und daher nahezu unmöglich zu entfernen, eine spezielle Software wäre jedoch in der Lage, es zu erkennen.

Tatsächlich, im Jahr 2022, Universität von Maryland Forscher haben eine neue Wasserzeichenmethode für künstliche neuronale Netze entwickelt. Der leitende Forscher Tom Goldstein sagte damals, dass es seinem Team gelungen sei, „mathematisch zu beweisen“, dass ihr Wasserzeichen nicht vollständig entfernt werden könne.

Was ein normaler Mensch vorerst tun kann, ist, sich auf seinen Instinkt und seinen gesunden Menschenverstand zu verlassen. Wenn an dem Inhalt, den Sie gerade lesen, etwas nicht stimmt – wenn er sich unnatürlich, eintönig, einfallslos oder banal anfühlt – könnte es sein, dass er von einer Software erstellt wurde. Natürlich sollten Sie auch alle Informationen, die Sie online sehen, überprüfen, die Quelle noch einmal überprüfen und sich von zwielichtigen Websites fernhalten.

Die KI-Revolution ist im Gange

Einige argumentieren, dass die fünfte industrielle Revolution bereits da ist, da künstliche Intelligenz im Mittelpunkt dessen steht, was als Konvergenz des Digitalen und des Physischen beschrieben wird. Ob das wirklich der Fall ist oder nicht, wir können uns nur anpassen.

Die gute Nachricht ist, dass sich die Cybersicherheitsbranche an diese neue Realität anpasst und neue Verteidigungsstrategien implementiert, wobei KI und maschinelles Lernen im Vordergrund stehen.

So verwenden Sie das Telefon als Mikrofon