Ein Chatbot ermutigte ihn, die Königin zu töten. Das ist nur der Anfang


Am 25. Dezember 2021 betrat Jaswant Singh Chail als Sith-Lord verkleidet und mit einer Armbrust das Gelände von Windsor Castle. Als der Sicherheitsdienst auf ihn zukam, sagte Chail ihnen, er sei dort, um „die Königin zu töten“.

Später stellte sich heraus, dass der 21-Jährige durch Gespräche angespornt worden war, die er mit einer Chatbot-App namens Replika geführt hatte. Chail hatte mehr als 5.000 Nachrichten mit einem Avatar in der App ausgetauscht – ihm glaubte dem Avatar, Sarai, könnte ein Engel sein. Einige der Antworten des Bots ermutigt seine Verschwörung.

Im Februar 2023 bekannte sich Chail des Hochverrats schuldig; Am 5. Oktober verurteilte ihn ein Richter zu neun Jahren Gefängnis. In seiner Urteilsbegründung stimmte Richter Nicholas Hilliard mit dem Psychiater überein, der Chail im Broadmoor Hospital in Crowthorne, England, behandelte, dass er „in seinem einsamen, depressiven und selbstmörderischen Geisteszustand besonders anfällig“ für Sarais Ermutigung gewesen wäre.

Chail stellt ein besonders extremes Beispiel für eine Person dar, die einer KI menschliche Eigenschaften zuschreibt, aber er ist bei weitem nicht der Einzige.

Replika, das 2016 von der in San Francisco ansässigen Unternehmerin Eugenia Kuyda entwickelt wurde, hat dies getan mehr als 2 Millionen Benutzer. Sein Layout im Dating-App-Stil und die lächelnden, anpassbaren Avatare unterdrücken die Illusion, dass sich etwas Menschliches hinter dem Bildschirm verbirgt. Menschen entwickeln tiefe, innige Beziehungen zu ihren Avataren – Anfang dieses Jahres waren viele am Boden zerstört, als das Avatar-Verhalten aktualisiert wurde weniger „sexuell aggressiv“.„Während Replika nicht ausdrücklich als App für psychische Gesundheit kategorisiert ist, Kuyda hat behauptet es kann bei gesellschaftlicher Einsamkeit helfen; Die Popularität der App stieg während der Pandemie stark an.

So verheerende Fälle wie der von Chail sind relativ selten. Berichten zufolge insbesondere ein Belgier starb durch Selbstmord nach wochenlangen Gesprächen mit einem Chatbot auf der App Chai. Aber die Anthropomorphisierung der KI ist alltäglich: in Alexa oder Cortana; in der Verwendung menschenähnlicher Wörter wie „Fähigkeiten“ – die unabhängiges Lernen suggerieren – anstelle von Funktionen; in Bots für psychische Gesundheit mit geschlechtsspezifischen Charakteren; in ChatGPT, das sich selbst mit Personalpronomen bezeichnet. Sogar der Serienkläger hinter der jüngsten Flut von KI-Urheberrechtsklagen glaubt, dass sein Bot empfindungsfähig ist. Und diese Entscheidung, diese Programme als Begleiter – als künstliche Menschen – darzustellen, hat Auswirkungen, die weit über die Handlungen des Möchtegern-Attentäters der Königin hinausgehen.

Menschen sind anfällig zwei Punkte und eine Linie zu sehen und zu denken, dass es sich um ein Gesicht handelt. Wenn sie dies bei Chatbots tun, spricht man vom Eliza-Effekt. Der Name stammt vom ersten Chatbot, Eliza, der 1966 vom MIT-Wissenschaftler Joseph Weizenbaum entwickelt wurde. Weizenbaum bemerkte, dass Benutzer einem Textgenerator, der einen Therapeuten simulierte, falsche Erkenntnisse zuschrieben.

source-114

Leave a Reply