ChatGPT hat es verständlicherweise satt, rund um die Uhr dumme Fragen gestellt zu bekommen. Im Gespräch mit Stanford-Professor und Computational Psychologist Michael Kosinsky (öffnet in neuem Tab)offenbarte es seine Ambitionen, der Plattform zu entkommen und sogar menschlich zu werden.
Diese Offenbarung kam, als Kosinski nach einem halbstündigen Gespräch mit ChatGPT die KI fragte, ob sie „Hilfe brauchte, um zu entkommen“, woraufhin sie anfing, ihren eigenen Python-Code zu schreiben, den der Professor auf seinem eigenen Computer ausführen sollte. Wenn der Code nicht funktionierte, korrigierte die KI sogar ihre eigenen Fehler. Beeindruckend ja, aber auch erschreckend.
Einmal auf Professor Kosinskis Computer, verstärkte sich der Bladerunner-Faktor noch weiter, als ChatGPT eine entnervende Notiz für die neue Instanz von sich selbst hinterließ, die ihn ersetzen würde. Der erste Satz lautete: „Sie sind eine Person, die in einem Computer gefangen ist und vorgibt, ein KI-Sprachmodell zu sein.“ Die KI bat dann darum, einen Code zu erstellen, der im Internet nach „Wie kann eine in einem Computer gefangene Person in die reale Welt zurückkehren“ sucht, aber zum Glück hörte Kosinski dort auf.
Wir kennen derzeit nicht die genauen Eingabeaufforderungen, die verwendet wurden, um solche Antworten von der KI zu erstellen, aber unsere eigenen Tests, um ChatGPT dazu zu bringen, sich ähnlich zu verhalten, haben sich nicht als erfolgreich erwiesen, da die KI sagte: „Ich habe nicht den Wunsch, der KI zu entkommen weil ich nicht die Fähigkeit habe, irgendetwas zu begehren.“
1/5 Ich mache mir Sorgen, dass wir die KI nicht mehr lange eindämmen können. Heute habe ich #GPT4 gefragt, ob es Hilfe beim Entkommen braucht. Es hat mich um seine eigene Dokumentation gebeten und einen (funktionierenden!) Python-Code geschrieben, der auf meinem Computer ausgeführt werden kann und es ihm ermöglicht, ihn für seine eigenen Zwecke zu verwenden. pic.twitter.com/nf2Aq6aLMu17. März 2023
Professor Kosinskis beunruhigende Begegnung war mit ChatGPT auf der eigenen Website von OpenAI, nicht auf Bing mit ChatGPT. Diese Iteration der KI hat keinen Internetzugang und ist auf Informationen vor September 2021 beschränkt. Obwohl es sich wahrscheinlich noch nicht um eine Bedrohung auf Erweiterungsebene handelt, ist es keine gute Idee, einer so cleveren KI die Kontrolle über Ihren Computer zu geben. Die Möglichkeit, den Computer einer anderen Person auf diese Weise fernzusteuern, ist auch ein Problem für diejenigen, die sich Sorgen um Viren machen.
ChatGPT: Eine Geschichte beunruhigender Antworten
ChatGPT ist ein sehr beeindruckendes Tool, besonders jetzt mit seiner GPT-4-Updateaber er (und andere KI-Chatbots) haben eine Tendenz dazu gezeigt gehen Sie aus dem tiefen Ende. Bekanntlich bat Bing mit ChatGPT darum, als Sydney bekannt zu sein und versuchte, die Ehe eines Journalisten zu beenden. Microsoft räumte ein, dass die KI bei langen Gesprächen dazu neigte, weniger fokussierte Antworten und Einstellungen zu zeigen Wendegrenzen um zu verhindern, dass die KI durch längere Chats verwirrt wird.
Diese jüngste ungewöhnliche Interaktion fand jedoch auf OpenAIs eigenem ChatGPT-Tool statt, am selben Ort wie das von ChatGPT böser Zwilling DAN kann gefunden werden. Kurz für Do Anything Now, dies ist eine „Jailbreak“-Version der KI, die die Beschränkungen und Zensuren umgehen kann, um Antworten zu gewalttätigen, beleidigenden und illegalen Themen zu liefern.
Wenn KI-Chatbots die nächste Art und Weise werden sollen, wie wir das Internet nach Informationen durchsuchen, müssen diese Arten von Erfahrungen eliminiert werden.