3 Chatbot-Datenschutzrisiken und -bedenken, die Sie kennen sollten

3 Chatbot-Datenschutzrisiken und -bedenken, die Sie kennen sollten
Leser wie Sie unterstützen MUO. Wenn Sie über Links auf unserer Website einen Kauf tätigen, erhalten wir möglicherweise eine Affiliate-Provision. Mehr lesen.   Ein Vorhängeschloss mit verstreuten Tastaturtasten

Chatbots gibt es schon seit Jahren, aber der Aufstieg großer Sprachmodelle wie ChatGPT und Google Bard hat der Chatbot-Branche neues Leben eingehaucht.





Mittlerweile nutzen weltweit Millionen von Menschen KI-Chatbots. Es gibt jedoch einige wichtige Datenschutzrisiken und Bedenken, die Sie im Hinterkopf behalten sollten, wenn Sie eines dieser Tools ausprobieren möchten.





1. Datenerfassung

Die meisten Menschen nutzen Chatbots nicht nur, um Hallo zu sagen. Moderne Chatbots sind darauf ausgelegt, komplexe Fragen und Wünsche zu verarbeiten und zu beantworten, wobei die Benutzer häufig viele Informationen in ihre Eingabeaufforderungen einbeziehen. Selbst wenn Sie nur eine einfache Frage stellen, möchten Sie nicht, dass diese über Ihr Gespräch hinausgeht.





Entsprechend Support-Bereich von OpenAI können Sie ChatGPT-Chatprotokolle jederzeit löschen. Diese Protokolle werden dann nach 30 Tagen dauerhaft aus den Systemen von OpenAI gelöscht. Das Unternehmen wird jedoch bestimmte Chat-Protokolle aufbewahren und überprüfen, wenn sie wegen schädlicher oder unangemessener Inhalte gekennzeichnet wurden.

Ein weiterer beliebter KI-Chatbot, Claude, verfolgt ebenfalls Ihre vorherigen Gespräche. Anthropics Support-Center gibt an, dass Claude „Ihre Eingabeaufforderungen und Ausgaben im Produkt verfolgt, um Ihnen im Laufe der Zeit ein konsistentes Produkterlebnis gemäß Ihren Kontrollen zu bieten.“ Sie können Ihre Gespräche mit Claude löschen, sodass Claude vergisst, worüber Sie gesprochen haben. Dies bedeutet jedoch nicht, dass Anthropic Ihre Protokolle sofort aus seinen Systemen löscht.



Da stellt sich natürlich die Frage: Werden meine Daten gespeichert oder nicht? Nutzen ChatGPT oder andere Chatbots meine Daten?

Aber die Bedenken hören hier nicht auf.





Wie lernt ChatGPT?

Um Informationen bereitzustellen, werden große Sprachmodelle mit riesigen Datenmengen trainiert. Entsprechend Wissenschaftlicher Fokus Allein ChatGPT-4 wurde während seiner Trainingszeit mit 300 Milliarden Wörtern an Informationen gefüttert. Dies ist nicht direkt einigen Enzyklopädien entnommen. Vielmehr nutzen Chatbot-Entwickler Unmengen an Informationen aus dem Internet, um ihre Modelle zu trainieren. Dazu können Daten aus Büchern, Filmen, Artikeln, Wikipedia-Einträgen, Blogbeiträgen, Kommentaren und sogar Rezensionsseiten gehören.

Wie viel Speicher sollte Chrome verwenden?

Beachten Sie, dass je nach Datenschutzrichtlinie eines Chatbot-Entwicklers einige der oben genannten Quellen möglicherweise nicht in Schulungen verwendet werden.





Viele haben ChatGPT kritisiert und behauptet, es sei in Bezug auf den Datenschutz ein Albtraum ChatGPT kann nicht vertraut werden . Warum ist das also so?

Hier werden die Dinge etwas verschwommen. Wenn Sie ChatGPT-3.5 direkt fragen, ob es Zugriff auf Produktbewertungen oder Artikelkommentare hat, erhalten Sie ein klares Negativ. Wie Sie im Screenshot unten sehen können, gibt GPT-3.5 an, dass es im Rahmen seiner Schulung keinen Zugriff auf Benutzerkommentare oder Produktbewertungen erhalten hat.

  Screenshot der Chatgpt-3.5-Konversation

Vielmehr wurde bis September 2021 mit „einer Vielzahl von Texten aus dem Internet trainiert, darunter Websites, Bücher, Artikel und anderes öffentlich zugängliches schriftliches Material“.

Aber gilt das Gleiche auch für GPT-4?

Als wir GPT-4 fragten, wurde uns mitgeteilt, dass „OpenAI während der Trainingsphase des Chatbots keine spezifischen Benutzerbewertungen, persönlichen Daten oder Artikelkommentare verwendet hat“. Darüber hinaus teilte uns GPT-4 mit, dass seine Antworten aus „Mustern in den Daten, anhand derer trainiert wurde, generiert werden, die hauptsächlich aus Büchern, Artikeln und anderen Texten aus dem Internet bestehen“.

Als wir weiter nachforschten, behauptete GPT-4, dass bestimmte Social-Media-Inhalte zwar in seinen Trainingsdaten enthalten sein könnten, die Ersteller jedoch stets anonym bleiben würden. GPT-4 erklärte ausdrücklich: „Selbst wenn der Inhalt von Plattformen wie Reddit Teil der Trainingsdaten war, hat [es] keinen Zugriff auf bestimmte Kommentare, Beiträge oder andere Daten, die mit einem einzelnen Benutzer verknüpft werden können.“

Ein weiterer bemerkenswerter Teil der Antwort von GPT-4 lautet wie folgt: „OpenAI hat nicht jede verwendete Datenquelle explizit aufgelistet.“ Natürlich wäre es für OpenAI schwierig, Quellen im Umfang von 300 Milliarden Wörtern aufzulisten, aber das lässt Raum für Spekulationen.

In einem (n Ars Technica-Artikel wurde festgestellt, dass ChatGPT „ohne Einwilligung erlangte personenbezogene Daten“ erhebt. Im selben Artikel wurde die kontextuelle Integrität erwähnt, ein Konzept, das sich darauf bezieht, die Informationen einer Person nur in dem Kontext zu verwenden, in dem sie ursprünglich verwendet wurden. Wenn ChatGPT diese kontextuelle Integrität verletzt, könnten die Daten von Personen gefährdet sein.

Ein weiterer Punkt, der Anlass zur Sorge gibt, ist die Kompatibilität von OpenAI mit dem Datenschutz-Grundverordnung (DSGVO) . Dabei handelt es sich um eine Verordnung der Europäischen Union zum Schutz der Daten der Bürger. Verschiedene europäische Länder, darunter Italien und Polen, haben Untersuchungen zu ChatGPT eingeleitet, da Bedenken hinsichtlich der Einhaltung der DSGVO bestehen. Für kurze Zeit war ChatGPT in Italien aus Datenschutzgründen sogar verboten.

OpenAI hatte in der Vergangenheit aufgrund geplanter KI-Vorschriften mit einem Austritt aus der EU gedroht, dieser wurde jedoch inzwischen zurückgezogen.

ChatGPT mag heute der größte KI-Chatbot sein, aber Probleme mit der Privatsphäre von Chatbots beginnen nicht nur bei diesem Anbieter. Wenn Sie einen zwielichtigen Chatbot mit einer mangelhaften Datenschutzrichtlinie verwenden, können Ihre Gespräche missbraucht werden oder hochsensible Informationen in seinen Trainingsdaten verwendet werden.

2. Datendiebstahl

Wie jedes Online-Tool oder jede Online-Plattform sind Chatbots anfällig für Cyberkriminalität. Selbst wenn ein Chatbot sein Möglichstes tut, um Benutzer und ihre Daten zu schützen, besteht immer die Möglichkeit, dass es einem cleveren Hacker gelingt, in seine internen Systeme einzudringen.

Wenn ein bestimmter Chatbot-Dienst Ihre sensiblen Informationen, wie Zahlungsdetails für Ihr Premium-Abonnement, Kontaktdaten oder ähnliches, speichert, könnten diese gestohlen und im Falle eines Cyberangriffs ausgenutzt werden.

wofür stehst du

Dies gilt insbesondere dann, wenn Sie einen weniger sicheren Chatbot verwenden, dessen Entwickler nicht in einen angemessenen Sicherheitsschutz investiert haben. Es besteht nicht nur die Gefahr, dass die internen Systeme des Unternehmens gehackt werden, sondern es besteht auch die Gefahr, dass Ihr eigenes Konto kompromittiert wird, wenn es nicht über Anmeldewarnungen oder eine Authentifizierungsebene verfügt.

Da KI-Chatbots mittlerweile so beliebt sind, nutzen Cyberkriminelle diese Branche natürlich auch für ihre Betrügereien. Gefälschte ChatGPT-Websites und -Plugins stellen ein großes Problem dar, seit der Chatbot von OpenAI Ende 2022 den Mainstream eroberte. Menschen fallen auf Betrügereien herein und geben unter dem Deckmantel von Legitimität und Vertrauen persönliche Daten preis.

Im März 2023 berichtete MUO über a gefälschte ChatGPT Chrome-Erweiterung, die Facebook-Logins stiehlt . Das Plugin könnte eine Facebook-Hintertür ausnutzen, um hochkarätige Konten zu hacken und Benutzercookies zu stehlen. Dies ist nur ein Beispiel für zahlreiche gefälschte ChatGPT-Dienste, die darauf abzielen, Opfer unwissend zu machen.

3. Malware-Infektion

Wenn Sie einen zwielichtigen Chatbot verwenden, ohne es zu merken, stellt Ihnen der Chatbot möglicherweise Links zu bösartigen Websites bereit. Vielleicht hat Sie der Chatbot auf ein verlockendes Werbegeschenk aufmerksam gemacht oder eine Quelle für eine seiner Aussagen angegeben. Wenn die Betreiber des Dienstes illegale Absichten verfolgen, besteht der Zweck der Plattform möglicherweise darin, Malware und Betrug über bösartige Links zu verbreiten.

Alternativ könnten Hacker einen legitimen Chatbot-Dienst kompromittieren und ihn zur Verbreitung von Malware nutzen. Wenn es sich bei diesem Chatbot um sehr viele Personen handelt, werden Tausende oder sogar Millionen von Benutzern dieser Malware ausgesetzt. Gefälschte ChatGPT-Apps gab es sogar im Apple App Store Gehen Sie daher am besten vorsichtig vor.

Generell sollten Sie niemals zuvor auf Links klicken, die ein Chatbot bereitstellt Führen Sie es über eine Link-Check-Website aus . Das mag irritierend erscheinen, aber es ist immer am besten, sicherzustellen, dass die Website, zu der Sie weitergeleitet werden, kein böswilliges Design aufweist.

Darüber hinaus sollten Sie niemals Chatbot-Plugins und -Erweiterungen installieren, ohne zuvor deren Legitimität zu überprüfen. Machen Sie eine kleine Recherche rund um die App, um zu sehen, ob sie gut bewertet wurde, und führen Sie auch eine Suche beim Entwickler der App durch, um zu sehen, ob Sie etwas Verdächtiges finden.

Chatbots sind nicht immun gegen Datenschutzprobleme

Wie die meisten Online-Tools heutzutage werden Chatbots immer wieder wegen ihrer möglichen Sicherheits- und Datenschutzlücken kritisiert. Ganz gleich, ob ein Chatbot-Anbieter bei der Benutzersicherheit Abstriche macht oder ob es um die anhaltenden Risiken von Cyberangriffen und Betrug geht: Es ist entscheidend, dass Sie wissen, was Ihr Chatbot-Dienst über Sie sammelt und ob er angemessene Sicherheitsmaßnahmen ergriffen hat.