Sie müssen kein Idiot sein, um den Bots zu widerstehen


Es war einmal eine virtuelle Assistentin namens Ms. Dewey, eine hübsche Bibliothekarin, gespielt von Janina Gavankar, die Ihnen bei Ihren Anfragen zu Microsofts erstem Versuch einer Suchmaschine behilflich war. Ms. Dewey wurde 2006 mit über 600 aufgezeichneten Dialogzeilen ins Leben gerufen. Sie war ihrer Zeit in einigen Punkten voraus, aber ein besonders übersehenes Beispiel wurde von der Informationswissenschaftlerin Miriam Sweeney in ihrem Buch 2013 festgehalten Doktorarbeit, wo sie die geschlechtsspezifischen und rassistischen Implikationen von Deweys Antworten detailliert ausführte. Dazu gehörten Zeilen wie: „Hey, wenn du in deinen Computer reinkommst, kannst du mit mir machen, was du willst.“ Oder wie die Suche nach „Blow Jobs“ dazu führte, dass ein Clip abgespielt wurde, in dem sie eine Banane isst, oder wie sie durch die Eingabe von Begriffen wie „Ghetto“ einen Rap mit Texten wie „Nein, Goldzahn, ghetto-fabelhafter Mutha-Fucker BEEP“ aufführte Schritte zu diesem Stück [ass] PIEP.” Sweeney analysiert das Offensichtliche: dass Dewey für einen weißen, heterosexuellen männlichen Benutzer entwickelt wurde. Immerhin lobten Blogs damals Deweys Koketterie.

Ms. Dewey wurde 2009 von Microsoft abgeschaltet, aber spätere Kritiker – mich eingeschlossen – würden ein ähnliches Muster von Vorurteilen im Umgang einiger Benutzer mit virtuellen Assistenten wie Siri oder Cortana feststellen. Als Microsoft-Ingenieure enthüllten, dass sie Cortana so programmiert hatten, dass sie sexuelle Anfragen oder Avancen entschieden zurückwies, kochte die Empörung auf Reddit. Ein stark positiv bewerteter Beitrag lautete: „Meinen diese verdammten Leute das ernst?! ‘Ihr’ ganzes Ziel ist es, das zu tun, was die Leute ihr sagen! Hey, Schlampe, füge das meinem Kalender hinzu … Der Tag, an dem Cortana eine ‚unabhängige Frau‘ wird, ist der Tag, an dem Software verdammt nutzlos wird.“ Kritik an einem solchen Verhalten blühte, auch aus Ihr bescheidener Korrespondent.

Jetzt, inmitten des Pushbacks gegen ChatGPT und seinesgleichen hat das Pendel hart zurückgeschlagen, und wir sind gewarnt gegen Empathie für diese Dinge. Es ist ein Punkt, den ich im Zuge des LaMDA-KI-Fiaskos im letzten Jahr gemacht habe: Ein Bot muss nicht intelligent sein, damit wir ihn vermenschlichen können, und diese Tatsache wird von Profiteuren ausgenutzt. Ich stehe zu dieser Warnung. Aber einige sind weiter gegangen, um vorzuschlagen dass frühere Kritik an Menschen, die ihre virtuellen Assistenten missbraucht haben, im Nachhinein naive Befähigungen sind. Vielleicht waren die Männer, die Cortana wiederholt als „Hündin“ bezeichneten, etwas auf der Spur!

Es mag Sie schockieren zu erfahren, dass dies nicht der Fall ist. Frühere Kritiken des KI-Missbrauchs waren nicht nur richtig, sondern nahmen die gefährlichere digitale Landschaft vorweg, mit der wir jetzt konfrontiert sind. Der wahre Grund dafür, dass sich die Kritik von „Menschen sind zu gemein für Bots“ zu „Menschen sind zu nett zu ihnen“ verlagert hat, liegt darin, dass sich die politische Ökonomie der KI plötzlich und dramatisch verändert hat und damit auch die Verkaufsargumente von Technologieunternehmen. Wo uns früher Bots als perfekte Diener verkauft wurden, werden sie uns jetzt als unsere besten Freunde verkauft. Aber in jedem Fall hat die pathologische Reaktion auf jede Bot-Generation implizit von uns verlangt, sie zu humanisieren. Die Besitzer des Bots haben immer unsere schlimmsten und besten Impulse bewaffnet.

Eine kontraintuitive Wahrheit über Gewalt ist, dass sie zwar entmenschlichend ist, aber vom Täter tatsächlich verlangt wird sehe dich als Mensch. Es ist eine düstere Realität, aber jeder, von Kriegsverbrechern bis hin zu Spinnern in der Kneipe, kommt bis zu einem gewissen Grad auf die Idee, dass seine Opfer Schmerzen empfinden. Entmenschlichung ist nicht das Versäumnis, jemanden als Menschen zu sehen, sondern der Wunsch, jemanden als weniger als menschlich zu sehen und entsprechend zu handeln. Auf einer bestimmten Ebene war es also genau das Ausmaß, in dem Menschen ihre virtuellen Assistenten mit echten Menschen verwechselten, das sie dazu ermutigte, sie zu missbrauchen. Sonst würde es keinen Spaß machen. Das führt uns zum gegenwärtigen Moment.

Die vorherige Generation von KI wurde uns als perfekte Diener verkauft – eine ausgeklügelte PA oder vielleicht Majel Barretts Starship Enterprise-Computer. Nachgiebig, allwissend, immer bereit zu dienen. Die neuen Chatbot-Suchmaschinen tragen auch einige der gleichen Assoziationen, aber wenn sie sich weiterentwickeln, werden sie uns auch als unsere neuen Vertrauten verkauft, sogar als unsere neuen Therapeuten.

source-114

Leave a Reply