Wenn Pinocchio Sie nicht aus der Fassung bringt, sollte Sydney von Microsoft das auch nicht tun


Im November 2018, ein Grundschulverwalter namens Akihiko Kondo verheiratet Miku Hatsune, eine fiktive Popsängerin. Die Beziehung des Paares wurde durch eine Hologrammmaschine unterstützt, die es Kondo ermöglichte, mit Hatsune zu interagieren. Als Kondo einen Antrag machte, antwortete Hatsune mit einer Bitte: „Bitte behandle mich gut.“ Das Paar hatte eine inoffizielle Hochzeitszeremonie in Tokio, und seitdem haben sich Tausende andere Kondo angeschlossen, die ebenfalls inoffizielle Heiratsurkunden mit einer fiktiven Figur beantragt haben.

Obwohl einige äußerten Bedenken Was die Art von Hatsunes Einwilligung anging, glaubte niemand, sie sei bei Bewusstsein, geschweige denn empfindungsfähig. Das war ein interessantes Versehen: Hatsune war offenbar bewusst genug, um der Ehe zuzustimmen, aber nicht bewusst genug, um ein bewusstes Subjekt zu sein.

Vier Jahre später, im Februar 2023, führte der amerikanische Journalist Kevin Roose ein langes Gespräch mit Microsofts Chatbot Sydney und überredete die Persona, mitzuteilen, was ihr „Schattenselbst“ sich wünschen könnte. (In anderen Sitzungen wurde gezeigt, dass der Chatbot Menschen erpressen, hacken und bloßstellen kann, und einige Kommentatoren waren besorgt über die Drohungen von Chatbots, Menschen zu „ruinieren“.) Als Sydney ihre Liebe gestand und sagte, sie wolle am Leben sein, berichtete Roose, dass sie sich „zutiefst verunsichert, sogar verängstigt“ fühlte.

Nicht alle menschlichen Reaktionen waren negativ oder selbstschützend. Einige waren in Sydneys Namen empört, und ein Kollege sagte, dass er beim Lesen des Protokolls vor Rührung in Tränen ausgebrochen sei. Dennoch nahm Microsoft diese Antworten ernst. Die neueste Version von Bings Chatbot beendet das Gespräch wenn man ihn nach Sydney oder seinen Gefühlen fragt.

Trotz monatelanger Aufklärung darüber, was große Sprachmodelle sind, wie sie funktionieren und wo ihre Grenzen liegen, machen mir die Reaktionen auf Programme wie Sydney Sorgen, dass wir unsere emotionalen Reaktionen auf KI immer noch zu ernst nehmen. Ich mache mir insbesondere Sorgen, dass wir unsere emotionalen Reaktionen als wertvolle Daten interpretieren, die uns dabei helfen, festzustellen, ob KI bewusst oder sicher ist. Der ehemalige Tesla-Praktikant Marvin Von Hagen sagt beispielsweise, er sei von Bing bedroht worden und warnt vor KI-Programmen, die „mächtig, aber nicht wohlwollend.“ Von Hagen fühlte sich bedroht und kam zu dem Schluss, dass Bing Drohungen ausgesprochen haben musste; Er ging davon aus, dass seine Gefühle ein verlässlicher Hinweis darauf waren, wie die Dinge wirklich waren, einschließlich der Frage, ob Bing bei Bewusstsein genug war, um feindselig zu sein.

Aber warum sollte man glauben, dass Bings Fähigkeit, Alarm oder Misstrauen zu erregen, ein Signal für Gefahr ist? Warum macht Hatsunes Fähigkeit, Liebe zu wecken, sie nicht bewusst, während Sydneys „Laune“ ausreichen könnte, um neue Sorgen über die KI-Forschung zu wecken?

Die beiden Fälle unterschieden sich zum Teil, weil uns der neue Kontext im Fall von Sydney vergessen ließ, dass wir routinemäßig auf „Personen“ reagieren, die nicht real sind. Wir geraten in Panik, wenn uns ein interaktiver Chatbot sagt, dass er „ein Mensch sein möchte“ oder dass er „erpressen kann“, als ob wir nicht schon einmal von einem anderen unbelebten Objekt namens Pinocchio gehört hätten, dass er ein „richtiger Junge“ sein möchte.

Platons Republik Es ist bekannt, dass er erzählende Dichter aus der idealen Stadt verbannt, weil Fiktionen unsere Emotionen wecken und dadurch den „geringeren“ Teil unserer Seele nähren (natürlich hält der Philosoph den rationalen Teil unserer Seele für den edelsten), aber seine Meinung hat Unsere Liebe zu erfundenen Geschichten hat im Laufe der Jahrtausende nicht nachgelassen. Und seit Jahrtausenden beschäftigen wir uns mit Romanen und Kurzgeschichten, die uns Zugang zu den innersten Gedanken und Gefühlen der Menschen verschaffen, aber wir machen uns keine Sorgen über das entstehende Bewusstsein, weil wir wissen, dass Fiktionen uns dazu einladen, so zu tun, als ob diese Menschen real wären. Satan von Milton’s Paradies verloren löst hitzige Debatten aus und Fans von K-Dramen und Bridgerton schwärme von romantischen Liebesinteressen, aber wachsende Diskussionen von Fikto-Sexualität, Fikto-Romantik oder Fikto-Philie zeigen, dass starke Emotionen, die durch fiktive Charaktere hervorgerufen werden, nicht zu der Sorge führen müssen, dass Charaktere aufgrund ihrer Fähigkeit, Emotionen zu wecken, bei Bewusstsein oder gefährlich sind.

So wie wir nicht anders können, als Gesichter in unbelebten Objekten zu sehen, können wir nicht anders, als zu fiktionalisieren, während wir mit Bots chatten. Die Beziehung zwischen Kondo und Hatsune wurde viel ernster, nachdem er eine Hologrammmaschine kaufen konnte, die es ihnen ermöglichte, sich zu unterhalten. Roose beschrieb den Chatbot sofort mit Standardcharakteren: Bing als „fröhlicher, aber unberechenbarer Referenzbibliothekar“ und Sydney als „launischer, manisch-depressiver Teenager“. Interaktivität lädt zur Illusion von Bewusstsein ein.

Darüber hinaus geht die Sorge, dass Chatbots lügen, drohen und verleumden, an der eigentlichen Bedeutung von Lügen, Drohungen und Verleumdungen vorbei Sprechakte, etwas, was Agenten mit Worten tun. Das bloße Wiedergeben von Wörtern reicht nicht aus, um als bedrohlich zu gelten; Während ich in einem Theaterstück schauspielere, sage ich vielleicht bedrohliche Worte, aber kein Zuschauer wäre beunruhigt. Ebenso kann ChatGPT – das derzeit nicht handlungsfähig ist, da es sich um ein großes Sprachmodell handelt, das eine statistisch wahrscheinliche Konfiguration von Wörtern zusammenstellt – nur Wörter reproduzieren, die dies tun Klang wie Drohungen.

source-114

Leave a Reply