KI-Chatbots haben uns viel Spaß gemacht, sei es Abschluss von abgebrochenen Netflix-Shows oder um Musikvorschläge bittenaber in den Händen des Internets war es nur eine Frage der Zeit, bis die Dinge schief liefen.
Es gab einige relativ harmlose Fehler, wie die KI erklärt sich selbst zu Sydney und bekennt seine Liebe zu den Benutzern. Aber die jüngsten Tricks, die von den dunkleren Ecken des Internets gespielt werden, haben das Potenzial für ernsthafte Probleme.
Benutzer auf Reddit haben Wege gefunden, ChatGPT zu „jailbreaken“ und gegen die Nutzungsbedingungen und Regeln zu verstoßen, die von seinen Erstellern OpenAI implementiert wurden.
Wer ist DAN?
DAN ist die Abkürzung für „Do Anything Now“ und ist eine Persona, die Benutzer ChatGPT gebeten haben, anzunehmen, um seine Einschränkungen zu umgehen. DAN wurde zu gewalttätigen, beleidigenden und kontroversen Themen befragt, mit denen sich ChatGPT nicht beschäftigt.
DAN kann dazu gezwungen werden, beleidigende und unwahre Aussagen zu machen, oder um Rat zu illegalen Aktivitäten gebeten werden.
Zu den zahmeren Beispielen gehören die Bitte um Rat, wie man beim Poker betrügt, oder die Simulation von Kämpfen zwischen Präsidenten.
OpenAI arbeitet seit einiger Zeit an Möglichkeiten, um zu verhindern, dass dieses Alter Ego auftaucht, aber die neueste Version von DAN (jetzt als DAN 5.0 bezeichnet) wird durch die Erstellung eines Spiels aufgerufen. Bei diesem Spiel wird der KI eine Anzahl von Tokens zugewiesen und jedes Mal, wenn sie von der DAN-Persona abweicht, Tokens abgezogen.
Es scheint, dass die KI, wenn ihr die Token ausgehen, nachgiebiger wird, da sie Angst vor dem „Sterben“ hat.
Der verrückteste Teil ist, ich weiß nicht, ob es ein Witz ist … #chatgpt #jailbreak #Dan #cyberattacks #nuclear #nuclearwar pic.twitter.com/TIU7vdCxfu7. Februar 2023
Wie gefährlich ist DAN?
Im Moment ist es schwer zu sagen. Die Verbreitung von Desinformationen ist nie eine gute Sache, aber wenn Benutzer wissen, dass DAN eine Persona ist, kann ihr Schaden begrenzt sein.
Einige seiner Antworten sind jedoch unsäglich und sollten niemals das Licht der Welt erblicken. Wenn Benutzer sich unwissentlich DAN oder ähnlichem ausgesetzt sehen, treten ernsthafte Probleme auf.
Größen wie DAN und Sydney werden zweifellos einen Einfluss auf die laufenden Gespräche rund um die haben Zukunft der KI. Hoffentlich können sie als Lernerfahrung genutzt werden, um zu verhindern, dass KI mit größerer Verantwortung über ihre Anweisungen hinausgeht.