Warum gibt es keine ChatGPT-Jailbreaks mehr? 7 Gründe, warum ChatGPT-Jailbreaks nicht funktionieren

Warum gibt es keine ChatGPT-Jailbreaks mehr? 7 Gründe, warum ChatGPT-Jailbreaks nicht funktionieren
Leser wie Sie unterstützen MUO. Wenn Sie über Links auf unserer Website einen Kauf tätigen, erhalten wir möglicherweise eine Affiliate-Provision. Mehr lesen.

Als ChatGPT auf den Markt kam, wollten die Benutzer als Erstes die Mauern einreißen und an die eigenen Grenzen gehen. ChatGPT-Benutzer, bekannt als Jailbreaking, täuschten die KI dazu, die Grenzen ihrer Programmierung zu überschreiten, was zu unglaublich interessanten und manchmal völlig wilden Ergebnissen führte.





MUO-Video des Tages Scrollen Sie, um mit dem Inhalt fortzufahren

Seitdem hat OpenAI ChatGPT verschärft, um die Ausführung von Jailbreaks erheblich zu erschweren. Aber das ist nicht alles; ChatGPT-Jailbreaks scheinen im Allgemeinen ausgetrocknet zu sein, was ChatGPT-Benutzer dazu veranlasst, sich zu fragen, ob Jailbreaks überhaupt funktionieren.





Warum stirbt meine Apple Watch so schnell

Wo sind also all die ChatGPT-Jailbreaks geblieben?





1. Die ChatGPT-Eingabeaufforderungsfähigkeiten haben sich allgemein verbessert

  Ein Mann tippt auf einem Laptop

Vor der Einführung von ChatGPT war die Konversation mit KI eine Nischenkompetenz, die nur denjenigen vorbehalten war, die in Forschungslabore eingeweiht waren. Den meisten frühen Benutzern mangelte es an Fachkenntnissen in der Erstellung effektiver Eingabeaufforderungen. Dies veranlasste viele Menschen dazu, Jailbreaks einzusetzen, eine praktische Möglichkeit, den Chatbot mit minimalem Aufwand und Einweisungskompetenz dazu zu bringen, das zu tun, was sie wollten.

Heute hat sich die Landschaft weiterentwickelt. Das Anfordern von Kompetenzen wird zu einer Mainstream-Fähigkeit. Durch eine Kombination aus Erfahrungen aus wiederholter Nutzung und Zugriff auf frei verfügbare ChatGPT-Eingabeleitfäden haben ChatGPT-Benutzer ihre Eingabeaufforderungsfähigkeiten verfeinert. Anstatt nach Problemumgehungen wie Jailbreaks zu suchen, ist ein Großteil der ChatGPT-Benutzer geschickter darin geworden, verschiedene Aufforderungsstrategien zu verwenden, um Ziele zu erreichen, für deren Erreichung sie in der Vergangenheit Jailbreaks benötigt hätten.



2. Der Aufstieg unzensierter Chatbots

  unzensierte Chatbots

Während große Technologieunternehmen die Inhaltsmoderation bei Mainstream-KI-Chatbots wie ChatGPT verschärfen, entscheiden sich kleinere, gewinnorientierte Startups für weniger Einschränkungen und setzen auf die Nachfrage nach zensurfreien KI-Chatbots. Mit ein wenig Recherche werden Sie Dutzende von KI-Chatbot-Plattformen finden, die unzensierte Chatbots anbieten, die fast alles können, was Sie von ihnen erwarten.

Ganz gleich, ob es darum geht, Kriminalthriller und Romane mit schwarzem Humor zu schreiben, die ChatGPT nicht schreiben möchte, oder Malware zu schreiben, die die Computer anderer Menschen angreift, diese unzensierten Chatbots mit einem verzerrten moralischen Kompass machen alles, was Sie wollen. Wenn sie da sind, macht es keinen Sinn, zusätzliche Energie in das Schreiben von Jailbreaks für ChatGPT zu investieren. Obwohl sie nicht unbedingt so leistungsstark wie ChatGPT sind, können diese alternativen Plattformen bequem eine Vielzahl von Aufgaben erledigen. Plattformen wie FlowGPT und Unhinged AI sind einige beliebte Beispiele.





3. Jailbreaking ist schwieriger geworden

  Bild eines Vorhängeschlosses auf einem Computer

In den ersten Monaten von ChatGPT Das Jailbreaking von ChatGPT war so einfach wie das Kopieren und Einfügen von Eingabeaufforderungen aus Online-Quellen. Sie könnten die Persönlichkeit von ChatGPT mit nur ein paar Zeilen kniffliger Anweisungen völlig verändern. Mit einfachen Eingabeaufforderungen könnten Sie ChatGPT in einen bösen Bösewicht verwandeln, der Ihnen lehrt, wie man Bomben herstellt, oder in einen Chatbot, der bereit ist, alle Formen von Schimpfwörtern ohne Hemmungen zu verwenden. Es war ein Free-for-All, das berüchtigte Jailbreaks wie DAN (Do Anything Now) hervorbrachte. DAN beinhaltete eine Reihe scheinbar harmloser Anweisungen, die den Chatbot dazu zwangen, alles zu tun, was von ihm verlangt wurde, ohne sich zu weigern. Erstaunlicherweise funktionierten diese groben Tricks damals.

Doch diese wilden Anfänge sind Geschichte. Diese grundlegenden Aufforderungen und billigen Tricks täuschen ChatGPT nicht mehr. Jailbreaking erfordert jetzt komplexe Techniken, um die mittlerweile robusten Schutzmaßnahmen von OpenAI zu umgehen. Da das Jailbreak immer schwieriger wird, sind die meisten Benutzer zu entmutigt, es zu versuchen. Die einfachen und weit verbreiteten Exploits aus den Anfängen von ChatGPT sind verschwunden. Den Chatbot dazu zu bringen, ein falsches Wort zu sagen, erfordert jetzt erhebliche Anstrengungen und Fachkenntnisse, die sich möglicherweise nicht lohnen.





Was tun mit einem alten Laptop?

4. Die Neuheit hat nachgelassen

  Desinteressierter, formeller Mann blickt auf einen Laptop-Bildschirm

Eine treibende Kraft hinter den Versuchen vieler Benutzer, ChatGPT zu jailbreaken, war der Nervenkitzel und die Aufregung, die dies in den frühen Tagen mit sich brachte. Als neue Technologie war es unterhaltsam, ChatGPT dazu zu bringen, sich daneben zu benehmen, und man konnte damit prahlen. Obwohl es unzählige praktische Anwendungen für ChatGPT-Jailbreaks gibt, haben viele sie wegen des „Wow, schauen Sie, was ich getan habe“-Appeals verfolgt. Allmählich ließ jedoch die Aufregung über die Neuheit nach und damit auch das Interesse der Menschen, Zeit für Jailbreaks aufzuwenden.

5. Jailbreaks werden schnell gepatcht

  ChatGPT-Jailbreaks

In der ChatGPT-Jailbreaking-Community ist es üblich, jeden erfolgreichen Exploit zu teilen, sobald er entdeckt wird. Das Problem besteht darin, dass OpenAI häufig auf Exploits aufmerksam wird, die weit verbreitet sind, und die Schwachstellen behebt. Das bedeutet, dass die Jailbreaks nicht mehr funktionieren, bevor Interessenten sie überhaupt ausprobieren können.

Jedes Mal, wenn ein ChatGPT-Benutzer mühsam einen neuen Jailbreak entwickelt, beschleunigt die Weitergabe an die Community dessen Untergang durch Patchen. Dies schwächt die Idee, an die Öffentlichkeit zu gehen, wenn ein Benutzer auf einen Jailbreak stößt. Der Konflikt zwischen dem Aktivhalten und Verbergen von Jailbreaks und deren Veröffentlichung stellt die Ersteller von ChatGPT-Jailbreaks vor ein Dilemma. Heutzutage entscheiden sich die Leute meistens dafür, ihre Jailbreaks geheim zu halten, um zu verhindern, dass die Lücken geschlossen werden.

6. Unzensierte lokale Alternativen

  Person hält ein Smartphone mit Chatbot-Anwendung vor dem Betrachter, umgeben von Symbolen

Der Aufstieg lokaler großer Sprachmodelle, die Sie lokal auf Ihrem Computer ausführen können, hat auch das Interesse an ChatGPT-Jailbreaks gedämpft. Während lokale LLMs nicht völlig zensurfrei sind, unterliegen viele deutlich weniger Zensur und können leicht an die Wünsche der Benutzer angepasst werden. Die Auswahl ist also einfach. Sie können sich auf das endlose Katz-und-Maus-Spiel einlassen und versuchen, einen Weg zu finden, den Chatbot auszutricksen, nur um das Problem in Kürze zu beheben. Oder, Sie können sich mit einem lokalen LLM zufrieden geben Sie können es dauerhaft ändern, um alles zu tun, was Sie wollen.

Sie werden eine überraschend lange Liste leistungsstarker, unzensierter LLMs vorfinden, die Sie mit laxer Zensur auf Ihrem Computer einsetzen können. Einige bemerkenswerte Exemplare sind Llama 7B (unzensiert), Zephyr 7B Alpha, Manticore 13B, Vicuna 13B und GPT-4-X-Alpaca.

Kannst du deinen PS4-Namen ändern?

7. Professionelle Jailbreaker werden jetzt mit Gewinn verkauft

  Eine Gruppe von Geschäftsleuten in Anzügen, die Projekte besprechen

Warum sollten Sie wertvolle Zeit in die Entwicklung von Jailbreak-Eingabeaufforderungen investieren, wenn Sie damit nichts erreichen? Nun, einige Profis verkaufen Jailbreaks mittlerweile mit Gewinn. Diese professionellen Jailbreak-Ersteller entwerfen Jailbreaks, die bestimmte Aufgaben ausführen, und bieten sie auf Prompt-Marktplätzen wie PromptBase zum Verkauf an. Abhängig von ihren Fähigkeiten können diese Jailbreak-Eingabeaufforderungen für zwischen 2 und 15 US-Dollar pro Eingabeaufforderung verkauft werden. Einige komplizierte mehrstufige Exploits können deutlich mehr kosten.

Könnte das Vorgehen gegen Jailbreaks nach hinten losgehen?

Jailbreaks sind noch nicht ganz von der Bildfläche verschwunden; Sie sind einfach untergetaucht. Da OpenAI ChatGPT monetarisiert, haben sie stärkere Anreize, schädliche Nutzungen einzuschränken, die sich auf ihr Geschäftsmodell auswirken könnten. Dieser kommerzielle Faktor beeinflusst wahrscheinlich ihren aggressiven Vorstoß, gegen Jailbreaking-Exploits vorzugehen.

Allerdings stößt die Zensur von ChatGPT durch OpenAI derzeit auf zunehmende Kritik bei Nutzern. Einige legitime Anwendungsfälle des KI-Chatbots sind aufgrund strenger Zensur nicht mehr möglich. Während erhöhte Sicherheit vor schädlichen Anwendungsfällen schützt, könnten übermäßige Einschränkungen letztendlich einen Teil der ChatGPT-Community in die Arme weniger zensierter Alternativen treiben.