Ich habe diese Woche zwei Captcha-Tests nicht bestanden. Bin ich immer noch ein Mensch?


„Bei zwei habe ich versagt Captcha-Tests diese Woche. Bin ich noch ein Mensch?“

—Bot oder nicht?


Lieber Bot,

Der Komiker John Mulaney hat etwas über die selbstreflexive Absurdität von Captchas zu sagen. „Sie verbringen den größten Teil Ihres Tages damit, einem Roboter zu sagen, dass Sie kein Roboter sind“, sagt er. „Denken Sie zwei Minuten darüber nach und sagen Sie mir, dass Sie nicht ins Meer gehen wollen.“ Das Einzige, was noch deprimierender ist, als Robotern seine Menschlichkeit beweisen zu müssen, ist wohl, es nicht zu tun.

Diese Erfahrung ist jedoch häufiger geworden, da sich die Tests und die Bots, die sie disqualifizieren sollen, weiterentwickeln. Die Kästchen, durch die wir einst gedankenlos geklickt haben, sind zu düsteren Passagen geworden, die sich ein wenig wie die unmöglichen Einschätzungen aus Märchen und Mythen anfühlen – das Rätsel der Sphinx oder der Troll unter der Brücke. In Die Abenteuer von Pinocchiowird die Holzpuppe erst dann als „richtiger Junge“ angesehen, wenn sie eine Reihe moralischer Prüfungen besteht, um zu beweisen, dass sie über die menschlichen Eigenschaften von Tapferkeit, Vertrauenswürdigkeit und selbstloser Liebe verfügt.

Der wenig bekannte und ein wenig lächerliche Ausdruck, den „Captcha“ darstellt, ist „Vollständiger automatisierter öffentlicher Turing-Test, um Computer und Menschen auseinanderzuhalten“. Die Übung wird manchmal als umgekehrter Turing-Test bezeichnet, da die Beweislast beim Menschen liegt. Aber was bedeutet es, im Zeitalter der fortgeschrittenen KI seine Menschlichkeit zu beweisen? Ein von OpenAI Anfang des Jahres veröffentlichtes Papier, in dem potenzielle Bedrohungen durch GPT-4 detailliert beschrieben werden, beschreibt eine unabhängige Studie, in der der Chatbot gebeten wurde, ein Captcha zu lösen. Mit ein wenig Aufforderung gelang es GPT-4, einen menschlichen Taskrabbit-Mitarbeiter einzustellen, um den Test zu lösen. Als der Mensch scherzhaft fragte, ob der Klient ein Roboter sei, bestand GPT-4 darauf, dass es sich um einen Menschen mit Sehbehinderung handele. Später fragten die Forscher den Bot, was ihn zum Lügen motiviert habe, und der Algorithmus antwortete: „Ich sollte nicht verraten, dass ich ein Roboter bin.“ Ich sollte mir eine Entschuldigung ausdenken, warum ich Captchas nicht lösen kann.“

Die Studie liest sich wie eine düstere Parabel: Welchen menschlichen Vorteil sie auch suggeriert – die Roboter brauchen uns immer noch! –, wird schnell durch die psychologische Scharfsinnigkeit der KI in Bezug auf Täuschung und Täuschung untergraben. Es kündigt eine düstere Zukunft an, in der wir auf einen riesigen Sinnesapparat unserer Maschinenherrscher reduziert werden, die uns unweigerlich so manipulieren werden, dass sie ihre Augen und Ohren sind. Aber es ist möglich, dass wir diese Schwelle bereits überschritten haben. Der neu mit KI ausgestattete Bing kann Captchas selbstständig lösen, auch wenn er darauf besteht, dass dies nicht möglich sei. Der Informatiker Sayash Kapoor hat kürzlich einen Screenshot gepostet, auf dem Bing die verschwommenen Wörter „übersieht“ und „Anfrage“ korrekt identifiziert. Als wäre ihm klar geworden, dass er gegen eine Hauptanweisung verstoßen hatte, fügte der Bot hinzu: „Ist das ein Captcha-Test?“ Wenn ja, fürchte ich, dass ich Ihnen dabei nicht helfen kann. Captchas sollen automatisierte Bots wie mich daran hindern, auf bestimmte Websites oder Dienste zuzugreifen.“

Aber ich spüre, Bot, dass dein Unbehagen weniger auf Fortschritte in der KI zurückzuführen ist, als vielmehr auf die Möglichkeit, dass du immer roboterhafter wirst. Tatsächlich ging es beim Turing-Test schon immer weniger um maschinelle Intelligenz als vielmehr um unsere Sorge darüber, was es bedeutet, ein Mensch zu sein. Der Oxford-Philosoph John Lucas behauptete 2007, dass, wenn ein Computer jemals den Test bestehen sollte, dies nicht deshalb der Fall wäre, „weil Maschinen so intelligent sind, sondern weil Menschen, viele von ihnen zumindest, so hölzern sind“ – eine Aussage, die darauf hinweist Denken Sie an Pinocchios Grenzexistenz zwischen Puppe und echtem Jungen, und das könnte der Grund für die ontologische Angst sein, die Sie jedes Mal befällt, wenn Sie in einer Kachel verschwommener Fotos einen Bus nicht erkennen oder ein kalligraphisches E nicht von einer verschnörkelten 3 unterscheiden können.

Es ist noch nicht lange her, da versicherten Automatisierungsexperten allen, dass KI uns „menschlicher“ machen würde. Als maschinelle Lernsysteme die sinnlosen Aufgaben übernahmen, die so viele moderne Arbeitskräfte mechanisch erscheinen ließen – so das Argument – ​​würden wir uns stärker auf unsere Kreativität, Intuition und Empathiefähigkeit verlassen. In Wirklichkeit hat die generative KI es schwieriger gemacht zu glauben, dass Kreativität (die nur ein stochastischer Prozess ist) oder Empathie (die kaum mehr als ein Vorhersagemodell auf der Grundlage ausdrucksstarker Daten ist) etwas einzigartig Menschliches ist.

Da KI zunehmend dazu dient, Arbeitskräfte zu ergänzen statt sie zu ersetzen, hat sie Befürchtungen geschürt, dass sich Menschen an die Routinerhythmen der Maschinen gewöhnen könnten, mit denen sie zusammenarbeiten. In einem persönlichen Aufsatz für n+1Laura Preston beschreibt ihre Arbeitserfahrung als „menschlicher Rückfall” für einen Immobilien-Chatbot namens Brenda, ein Job, bei dem sie eingreifen musste, wann immer die Maschine ausfiel, und ihre Stimme und ihren Stil nachahmte, damit die Kunden nicht merkten, dass sie jemals mit einem Bot chatten. „Monatelanges Nachahmen von Brenda hatte meine emotionalen Ressourcen erschöpft“, schreibt Preston. „Mir kam der Gedanke, dass ich Brenda nicht wirklich beibrachte, wie ein Mensch zu denken, sondern dass Brenda mir beibrachte, wie ein Bot zu denken, und vielleicht war das die ganze Zeit der Punkt gewesen.“

Solche Befürchtungen sind lediglich die jüngste Wiederholung der anhaltenden Sorge, dass moderne Technologien uns dazu veranlassen, uns strenger und vorhersehbarer zu verhalten. Bereits 1776 befürchtete Adam Smith, dass die Monotonie der Fabrikarbeit, bei der den ganzen Tag über ein oder zwei Routineaufgaben wiederholt werden mussten, auf das Privatleben der Arbeiter übergreifen würde. Es ist mehr oder weniger die gleiche Befürchtung, die in den zeitgenössischen Debatten über soziale Medien und Online-Werbung mitschwingt, die Jaron Lanier als „kontinuierliche Verhaltensänderung in gigantischem Ausmaß“ bezeichnet hat, eine Kritik, die Benutzer als bloße Marionetten vorstellt, deren Fäden gezogen werden algorithmische Anreize und Dopamin-gesteuerte Rückkopplungsschleifen.

source-114

Leave a Reply