7 Gründe gegen den Einsatz generativer KI in Messaging-Apps

7 Gründe gegen den Einsatz generativer KI in Messaging-Apps
Leser wie Sie unterstützen MUO. Wenn Sie über Links auf unserer Website einen Kauf tätigen, erhalten wir möglicherweise eine Affiliate-Provision. Weiterlesen.

In der KI werden Fortschritte in beispiellosem Ausmaß erzielt, wobei fast wöchentlich neue Entwicklungen erfolgen. Generative KI-Tools wie ChatGPT sind mittlerweile so beliebt, dass sie überall integriert werden.





Aber sollten wir? Der Einsatz von KI-Technologie für Produktivität, Bildung und Unterhaltung ist sinnvoll. Allerdings denken Unternehmen jetzt darüber nach, es direkt in unsere Messaging-Apps zu integrieren, und das kann sich als destruktiv erweisen. Hier sind sieben Gründe dafür.





MAKEUSEOF-VIDEO DES TAGES Scrollen Sie, um mit dem Inhalt fortzufahren

1. KI-Chatbots neigen zu Halluzinationen

Wenn Sie verwendet haben ChatGPT, Bing oder Bard , Sie wissen, dass generative KI-Chatbots dazu neigen, zu „halluzinieren“. Von einer KI-Halluzination spricht man, wenn diese Chatbots etwas erfinden, weil es an geeigneten Trainingsdaten für die vom Benutzer angeforderte Anfrage mangelt.





Mit anderen Worten: Sie liefern Fehlinformationen, klingen dabei aber zuversichtlich, als ob es sich um eine Tatsache handelte. Dies ist ein großes Problem, da viele Menschen bei der Verwendung eines Chatbots keine Faktenprüfung durchführen und davon ausgehen, dass dieser standardmäßig korrekt ist. Es ist eines der größten Fehler, die es beim Einsatz von KI-Tools zu vermeiden gilt .

In Messaging-Apps kann der Schaden sogar noch größer sein, da Menschen damit (absichtlich oder unabsichtlich) Fehlinformationen unter ihren Kontakten und in sozialen Medien verbreiten, Propaganda verbreiten und Echokammern fördern können.



2. Menschen reden nicht gern mit Bots

  Kleiner orange-silberner Roboter, der auf einem Teppichboden sitzt und einen Laptop davor hat.
Bildquelle: Graphicsstudio/ Vecteezy

Denken Sie daran, wie nervig es ist, wenn Sie versuchen, den Kundensupport eines Unternehmens zu kontaktieren, und Sie dazu gezwungen werden, mit einem Chatbot zu sprechen und nicht mit einer echten menschlichen Führungskraft, die die Nuancen Ihres Problems tatsächlich verstehen und Ihnen entsprechende Hilfestellung bieten kann.

Gleiches gilt für persönliche Gespräche. Stellen Sie sich vor, Sie sprechen mit Ihrem Freund und auf halbem Weg stellen Sie fest, dass er die ganze Zeit über KI verwendet hat, um auf Ihre Nachrichten zu antworten, anstatt dies allein auf der Grundlage seiner Gedanken und Meinungen zu tun.





Wenn Sie wie die meisten Menschen sind, würden Sie sich sofort beleidigt fühlen und den Einsatz von KI in einem privaten Gespräch als unsensibel, unheimlich und sogar passiv-aggressiv empfinden, als ob die andere Person Sie ihrer Zeit, Aufmerksamkeit usw. nicht für wert hält Empathie.

Windows 10 auf neuen Computer übertragen

Der Einsatz von KI zum Beispiel beim Schreiben von E-Mails ist verständlich, da es sich um eine professionelle Interaktion handelt, aber der Einsatz von KI in persönlichen Gesprächen wird niemand fördern wollen. Sobald die Neuheit der Technologie verblasst, wird es unhöflich, sie in diesem Zusammenhang zu verwenden.





3. KI kann Ihre einzigartige Tonalität nicht kopieren

Generative KI-Tools ermöglichen es Ihnen bereits heute, die Tonalität Ihrer Nachricht zu ändern, z. B. formell, fröhlich oder neutral, je nachdem, an wen Sie schreiben und wie Sie rüberkommen möchten. Magic Compose in Google Messages Mit beispielsweise können Sie dasselbe tun.

Das ist zwar gut, aber beachten Sie, dass diese Tonalitäten auf der Grundlage festgelegter Trainingsdaten und nicht Ihres persönlichen Chat-Verlaufs trainiert werden, sodass Ihre einzigartige Tonalität oder die Emojis, die Sie normalerweise verwenden, nicht reproduziert werden können.

Das interessiert Sie möglicherweise nicht so sehr, insbesondere wenn Sie KI verwenden, um einfache geschäftliche E-Mails zu schreiben, für die alle mehr oder weniger die gleiche formale Tonalität verwenden. Aber es ist weitaus wichtiger, als Sie vielleicht denken, wenn Sie es verwenden, um mit Ihren Freunden und Ihrer Familie über eine Messaging-App zu sprechen.

Solange KI-Tools Ihnen nicht die Möglichkeit geben, ihr Sprachmodell basierend auf Ihrem Chat-Verlauf zu trainieren, werden sie nicht in der Lage sein, Ihren einzigartigen Dialekt und Ihre Exzentrizitäten zu reproduzieren. Allerdings ist diese Herausforderung nicht so schwer zu lösen, sodass wir sie möglicherweise bald in die Tat umsetzen können.

So verbinden Sie den Xbox-Controller mit der Xbox

4. Gute Aufforderungen zu schreiben braucht Zeit

  Mann schreibt SMS auf Mobiltelefon

Das Erreichen der gewünschten Ergebnisse mit einem KI-Chatbot hängt stark von der Qualität Ihrer Eingabeaufforderung ab. Wenn Sie eine schlechte Eingabeaufforderung schreiben, erhalten Sie eine schlechte Antwort und müssen die Eingabeaufforderung verfeinern, bis Sie ein zufriedenstellendes Ergebnis erhalten.

Dieser Vorgang ist sinnvoll, wenn Sie lange Inhalte verfassen möchten, ist jedoch äußerst ineffizient, wenn Sie in einem informellen Gespräch mehrere kurze Antworten verfassen.

In den meisten Fällen dauert es möglicherweise länger, Ihre Eingabeaufforderungen zu verfeinern und brauchbare Antworten zu erhalten, als wenn Sie die Nachrichten einfach selbst geschrieben hätten.

5. KI kann zu anstößigen Ergebnissen führen

Neben der Genauigkeit gehört auch die Voreingenommenheit dazu größte Probleme mit generativer KI . Manche Menschen empfinden KI als unvoreingenommen, da sie keine eigenen Motive hat. Allerdings sind die Menschen hinter diesen KI-Tools letztendlich Menschen mit ihren eigenen Vorurteilen.

Mit anderen Worten: Voreingenommenheit ist in das System eingebrannt. KI versteht von Natur aus nicht, was als anstößig gilt und was nicht, daher könnte sie beispielsweise darauf trainiert werden, voreingenommen gegenüber bestimmten Personengruppen oder bestimmten Kulturen zu sein – und so anstößige Ergebnisse zu erzielen.

6. KI versteht Sarkasmus oder Humor möglicherweise nicht

Das Verständnis der KI für Redewendungen wie Ironie und Metaphern verbessert sich im Laufe der Zeit, ist aber noch lange nicht so weit, dass sie in einem Gespräch zur Erkennung von Humor eingesetzt werden kann. Als man beispielsweise Googles Bard aufforderte, sarkastisch zu sein, war das Ergebnis ein Zufall.

  Google Bard-Chatbot versucht sarkastisch zu sein

In einigen Fällen war es wirklich lustig und passte zu meinem Sarkasmus. Aber in anderen Fällen kam es entweder zu einer unlustigen Standardantwort oder es weigerte sich einfach, an der Konversation überhaupt teilzunehmen, mit der Begründung, dass es mir bei meiner Anfrage nicht weiterhelfen könne, da es sich nur um ein LLM handele.

7. Die Abhängigkeit von KI kann zu schlechter Kommunikation führen

Ein weiteres subtiles, aber erhebliches Problem bei der Integration generativer KI in Messaging-Apps besteht darin, wie sie unsere Kommunikationsfähigkeit beeinflussen kann. Wenn wir uns zunehmend auf KI verlassen, um miteinander zu kommunizieren, kann dies unsere Fähigkeit zur Kommunikation beeinträchtigen Trainieren Sie unsere emotionale Intelligenz und soziale Fähigkeiten.

Der Punkt hier ist, dass wir umso schlechter darin werden, Ideen auf organischem Wege zu kommunizieren, je mehr wir unsere sozialen Bedürfnisse an die KI auslagern. Mit anderen Worten: Je mehr Sie KI verwenden, um mit Ihren Kontakten zu kommunizieren, desto wahrscheinlicher ist es, dass sich die Qualität Ihrer Beziehungen verschlechtert.

Nicht alles muss KI haben

Mit dem Aufkommen neuer Technologien sind wir oft so sehr damit beschäftigt, herauszufinden, wie wir sie nutzen können, dass wir nicht darüber nachdenken, ob wir sie überhaupt nutzen sollten.

Während es absolut sinnvoll ist, generative KI zum Schreiben von E-Mails, zum Brainstorming von Ideen oder zum Erstellen von Bildern für Präsentationen zu verwenden, stößt ihre Integration in Messaging-Apps auf viel Kritik.