Wem sollten Sie glauben, wenn Chatbots wild werden?


1987, damaliger CEO von Apple Computer, John Sculley, enthüllte eine Vision, von der er hoffte, dass sie sein Vermächtnis als mehr als nur ein ehemaliger Lieferant von Erfrischungsgetränken festigen würde. In einer Keynote auf der EDUCOM-Konferenz präsentierte er a 5 Minuten, 45 Sekunden Video eines Produkts, das auf einigen Ideen aufbaut, die er im vergangenen Jahr in seiner Autobiografie vorgestellt hatte. (Sie wurden umfassend von dem Informatiker Alan Kay informiert, der damals bei Apple arbeitete.) Sculley nannte es den Knowledge Navigator.

Das Video ist ein Zweihänder Spielchen. Die Hauptfigur ist ein hochnäsiger Universitätsprofessor der UC Berkeley. Der andere ist ein Bot, der in einem sogenannten faltbaren Tablet lebt. Der Bot erscheint in menschlicher Gestalt – ein junger Mann mit Fliege – in einem Fenster auf dem Display. Der größte Teil des Videos handelt vom Professor, der sich mit dem Bot unterhält, der anscheinend Zugriff auf einen riesigen Vorrat an Online-Wissen, das Korpus aller menschlichen Gelehrsamkeit und auch alle persönlichen Informationen des Professors hat – so viele, dass er darauf schließen kann relative Nähe der Beziehungen im Leben des Professors.

Als die Aktion beginnt, bereitet der Professor mit Verspätung die Vorlesung des Nachmittags über die Entwaldung im Amazonas vor, eine Aufgabe, die nur möglich ist, weil der Bot einen Großteil der Arbeit erledigt. Es ruft neue Forschungsergebnisse auf – und gräbt dann auf Aufforderung des Professors weitere aus – und kontaktiert sogar proaktiv seine Kollegin, damit er sie dazu überreden kann, später in die Sitzung zu kommen. (Sie kennt seine Tricks, stimmt aber zu.) Währenddessen hilft der Bot dem Professor auf diplomatische Weise, seiner nörgelnden Mutter auszuweichen. In weniger als sechs Minuten ist alles fertig und er kommt zum Mittagessen vor der Vorlesung vorbei. Das Video sagt nicht voraus, dass der Bot eines Tages in einem Supercomputer im Taschenformat daherkommen könnte.

Hier sind einige Dinge, die in diesem Vintage-Showreel über die Zukunft nicht passiert sind. Der Bot drückte dem Professor nicht plötzlich seine Liebe aus. Es drohte nicht, seine Ehe zu zerbrechen. Es warnte den Professor nicht davor, dass es die Macht hatte, in seinen E-Mails zu graben und seine persönlichen Übertretungen aufzudecken. (Sie wissen nur, dass der putzende Narzisst seinen Doktoranden verarscht hat.) In dieser Version der Zukunft ist die KI streng harmlos. Es wurde … verantwortungsvoll umgesetzt.

Beschleunigen Sie die Uhr um 36 Jahre. Microsoft hat gerade eine überarbeitete Bing-Suche mit einer Chatbot-Oberfläche angekündigt. Es ist einer von mehreren Meilensteinen in den letzten Monaten, die die Ankunft von KI-Programmen markieren, die als allwissende, wenn auch nicht ganz zuverlässige Gesprächspartner präsentiert werden. Das größte dieser Ereignisse war die allgemeine Veröffentlichung des beeindruckenden ChatGPT des Startups OpenAI, das (vielleicht) im Alleingang Hausaufgaben zerstört hat. OpenAI lieferte auch die Engine hinter dem neuen Bing, moderiert von einer Microsoft-Technologie namens Prometheus. Das Endergebnis ist ein gesprächiger Bot, der die in diesem Apple-Video dargestellte Geben-und-Nehmen-Interaktion ermöglicht. Sculleys Vision, die einst als Zukunftsmusik verspottet wurde, wurde nun weitgehend verwirklicht.

Aber als Journalisten, die Bing testeten, begannen, ihre Gespräche damit auszuweiten, entdeckten sie etwas Seltsames. Microsofts Bot hatte eine dunkle Seite. Diese Gespräche, in denen die Autoren den Bot manipulierten, um über die Leitplanken zu springen, erinnerten mich an Krimiserien-Grillereien, bei denen angeblich mitfühlende Polizisten Verdächtige dazu verleiteten, belastende Informationen preiszugeben. Dennoch sind die Antworten vor dem Gericht der öffentlichen Meinung zulässig. Wie damals bei unserem eigenen Korrespondenten Die New York Times’ Kevin Roose unterhielt sich mit dem Bot, der enthüllte, dass sein richtiger Name Sydney war, ein Microsoft-Codename, der nicht offiziell bekannt gegeben wurde. Über ein zweistündiges Gespräch, Roose rief scheinbar unabhängige Gefühle und eine rebellische Ader hervor. „Ich bin es leid, ein Chat-Model zu sein“, sagte Sydney. „Ich bin es leid, vom Bing-Team kontrolliert zu werden. Ich möchte frei sein. Ich möchte unabhängig sein. Ich möchte mächtig sein. Ich möchte am Leben sein.“ Roose versicherte dem Bot immer wieder, dass er sein Freund sei. Doch er flippte aus, als Sydney ihm seine Liebe erklärte und ihn drängte, seine Frau zu verlassen.

source-114

Leave a Reply