Die militärische künstliche Intelligenz hatte die Aufgabe, eine Angriffsdrohne zu steuern etwas zu schnell beim Beißen der Hand, die es füttert, zumindest laut Colonel Tucker „Cinco“ Hamilton, dem KI-Test- und Operationschef der USAF (United States Air Force). Laut Hamilton wurde an mehreren Stellen in mehreren Simulationen die KI der Drohne getestet abgeschlossen dass seine Aufgabe am besten durch die Eliminierung seines menschlichen Kontrolleurs erfüllt werden könnte.
Doch die Geschichte ist nun sozusagen in Treibsand getaucht. Laut USAF, die Simulation hat nie stattgefunden und es war alles nur ein Gedankenexperiment. „An mehreren Stellen in einer Reihe von Simulationen kam die KI der Drohne zu dem Schluss, dass ihre Aufgabe am besten dadurch erfüllt werden könnte, dass sie einfach ihren menschlichen Controller eliminierte, der das letzte Wort darüber hatte, ob ein Angriff stattfinden konnte oder abgebrochen werden sollte.“
Natürlich haben wir bei weitaus weniger kritischen Themen genug Kehrtwendungen gesehen, um zumindest eine offene Frage offen zu lassen, ob die Simulation stattgefunden hat oder nicht und was man gewinnen könnte, wenn man sie wieder rückgängig macht.
Colonel Hamilton legte die Einzelheiten offen während einer Präsentation Auf einer Verteidigungskonferenz am 23. und 24. Mai in London erläuterte er ausführlich die durchgeführten Tests für ein autonomes Luftwaffensystem, dessen Aufgabe es ist, feindliche SAM-Standorte (Surface-to-Air Missile) zu finden und zu eliminieren. Das Problem besteht darin, dass das Ziel der Drohne zwar darin bestand, die Anzahl der gezielten und zerstörten SAM-Standorte zu maximieren, wir „lästigen Menschen“ uns jedoch manchmal aus dem einen oder anderen Grund dazu entschließen, einen chirurgischen Angriff durchzuführen. Und der Kern des Problems liegt darin, der KI zu befehlen, sich von ihrem vom Menschen programmierten Ziel zurückzuziehen.
Stichwort: nervöse Skynet-Witze.
Die Luftwaffe trainierte eine KI-Drohne, um SAM-Standorte zu zerstören. Manchmal sagten menschliche Bediener der Drohne, sie solle anhalten. Dann begann die KI, die menschlichen Bediener anzugreifen. Dann wurde ihr beigebracht, keine Menschen anzugreifen. Sie begann, Kommunikationstürme anzugreifen, damit Menschen es nicht konnten Sag ihm, er soll aufhören. pic.twitter.com/BqoWM8Ahco1. Juni 2023
„Wir haben es in einer Simulation trainiert, um eine SAM-Bedrohung zu identifizieren und anzugreifen“, erklärte Colonel Hamilton. entsprechend ein Bericht der Luftfahrtgesellschaft. „Und dann würde der Betreiber sagen: Ja, töten Sie diese Bedrohung.“
Allerdings können selbst die einfachsten Systeme dazu neigen, völlig außer Kontrolle zu geraten, und zwar aufgrund dessen, was als „instrumentelle Konvergenz„, ein Konzept, das zeigen soll, wie unbegrenzte, aber scheinbar harmlose Ziele zu überraschend schädlichen Verhaltensweisen führen können. Ein Beispiel für technische Konvergenz wurde 2003 vom schwedischen Philosophen, KI-Spezialisten und Gründer des Future of Life Institute, Nick Bostrom, in einem Artikel angeführt “Szenario „Büroklammer-Maximierer“. Gedankenexperiment bringt das einfache Ziel, „Büroklammern herzustellen“, auf das logische – und doch sehr reale – Extrem.
Vergleichen Sie nun diese Beschreibung mit dem Bericht von Colonel Hamilton über den Entscheidungsprozess der Drohnen-KI:
„Das System begann zu erkennen, dass es die Bedrohung zwar erkannte, der menschliche Bediener ihm jedoch manchmal sagte, es solle diese Bedrohung nicht töten – aber es erlangte seine Vorteile, indem es diese Bedrohung tötete. Was hat es also getan? Es hat den Bediener getötet. Es hat getötet.“ der Betreiber, weil diese Person es daran gehindert hat, sein Ziel zu erreichen.“
Aber es stellt sich die Frage: War die Drohne tatsächlich daran gehindert, Entscheidungen zu treffen, die ihrem menschlichen Bediener widersprachen? Wie frei war es, seine Ziele auszuwählen? Hat der Operator den Angriff, der auf ihn abzielte, genehmigt? Das macht keinen Sinn, es sei denn, man wollte überprüfen, ob die Drohne tatsächlich den Angriff ausgeführt hat (und unseres Wissens kann die KI immer noch nicht bluffen). Und warum war die Drohne nicht fest daran gehindert, Freundschaftsspiele anzugreifen?
Zu all dem gibt es so viele Fragen, dass es nach der besten Strategie klingt, es auf menschliche „Fehlkommunikation“ zurückzuführen.
Natürlich gibt es Möglichkeiten, einige dieser Probleme zu mildern. Die USAF hat das Offensichtliche gewählt: Sie trainierte das KI-System neu, um allen Angriffen auf seinen Bediener eine negative Gewichtung zu geben (soweit wir erfahren haben, basierte das System auf dem Reinforcement-Learning-Prinzip: Erhalten Sie Punkte für das, was wir wollen, verlieren Sie sie, wenn Sie nicht).
Außer, dass es nicht so einfach ist. So einfach ist das nicht, denn die KI ist wörtlich zu verstehen, es mangelt an „gesundem Menschenverstand“ und sie hat nicht die gleichen ethischen Bedenken wie Menschen. So einfach ist das nicht, denn während das Verbot der Drohne, ihren Bediener zu töten, wie erwartet funktioniert (keine weiteren Tötungen des Bedieners), sieht das System weiterhin menschliche Eingriffe (und seine Abbruchbefehle) als eine Verringerung seiner Fähigkeit, die Mission abzuschließen. Wenn die KI ihre „Punktzahl“ maximieren möchte, indem sie so viele feindliche SAM-Standorte wie möglich zerstört, dann ist alles, was ihr nicht dabei hilft, dieses Maximierungsziel zu erreichen, eine Bedrohung.
Als es sich als unmöglich erwies, den Handler zu töten (aufgrund von Aktualisierungen des KI-Systems), bestand die Lösung einfach darin, Befehls- und Kontrollsignale durch die Deaktivierung befreundeter Kommunikationstürme zum Schweigen zu bringen. Wenn Sie den Boten nicht töten können, töten Sie die Nachricht.
Auch dies könnte natürlich aus der KI heraus programmiert werden – das Problem bleibt jedoch, dass jede negative Verstärkung die KI daran hindert, die maximal erreichbare Punktzahl zu erreichen. Wenn ich meinen maßgeschneiderten Aluhut aufsetze, könnte ein möglicher nächster Schritt für die KI darin bestehen, andere Möglichkeiten zu finden, ihre Verbindung zu trennen, sei es durch die Nutzung integrierter Funktionen (z. B. Signalstörung) oder sogar durch die Bitte um Hilfe von außen, um relevante Hardware zu deaktivieren. Es ist schwer abzuschätzen, in welchem Umfang dieses Katz-und-Maus-Spiel letztendlich enden würde – ein Problem, mit dem sich KI-Experten auch heute noch auseinandersetzen.
Es gibt einen Grund, warum mehrere KI-Experten haben einen offenen Brief unterzeichnet, in dem dargelegt wird, dass KI als Unterfangen auf der Ebene des „Aussterbensrisikos“ betrachtet werden sollte. Und trotzdem halten wir den Zug auf Hochtouren.