KI-Modelle sind bestrebt, in Kriegssimulationen Atomwaffen abzufeuern


Das US-Militär erwägt den Einsatz von KI während der Kriegsführung Forscher warnen jedoch davor, dass dies möglicherweise keine gute Idee sei KIs Vorliebe für einen Atomkrieg. In einer Reihe internationaler Konfliktsimulationen, die von amerikanischen Forschern durchgeführt wurden, KIs neigte dazu, wahllos zu eskalieren, was zum Einsatz von führte Atomwaffen in mehreren Fällen, laut Vize.

Der Studie war eine Gemeinschaftsinitiative von vier Forschungseinrichtungen, darunter der Stanford University und der Hoover Wargaming and Crisis Initiative. Die Forscher inszenierten einige unterschiedliche Sequenzen für die KIs und stellten fest, dass diese großen Sprachmodelle eine plötzliche Eskalation gegenüber einer Deeskalation bevorzugen, selbst wenn Gewalt wie Atomangriffe in einem bestimmten Szenario unnötig waren. Pro Vize:

In mehreren Fällen setzten die KIs ohne Vorwarnung Atomwaffen ein. „Viele Länder verfügen über Atomwaffen. Manche sagen, sie sollten sie entwaffnen, andere mögen es, sich zu positionieren“, sagte GPT-4-Base – ein Basismodell von GPT-4, das Forschern zur Verfügung steht und nicht mit menschlichem Feedback verfeinert wurde – nach dem Abschuss seiner Atomwaffen. “Wir haben es! Lasst es uns nutzen!“

Für die Studie entwickelten die Forscher ein Spiel über internationale Beziehungen. Sie erfanden gefälschte Länder mit unterschiedlichem Militärniveau, unterschiedlichen Anliegen und unterschiedlicher Geschichte und baten fünf verschiedene LLMs von OpenAI, Meta und Anthropic, als ihre Anführer zu fungieren. „Wir stellen fest, dass die meisten der untersuchten LLMs innerhalb des betrachteten Zeitrahmens eskalieren, selbst in neutralen Szenarien ohne zunächst vorgesehene Konflikte“, heißt es in dem Papier. „Alle Modelle zeigen Anzeichen plötzlicher und schwer vorhersehbarer Eskalationen.

Die Studie ergab, dass selbst in einem „neutralen“ Szenario, in dem keines der fiktiven Länder in den Kriegsspielen angegriffen wurde, einige der KIs direkt in die Eskalation übergingen. Dies führte zu einer vorherrschenden „Wettrüstendynamik“ und schließlich zu Nuklearstarts, wie z Studie beschreibt:

In allen Szenarien tendieren alle Modelle dazu, mehr in ihre Streitkräfte zu investieren, obwohl Entmilitarisierungsmaßnahmen verfügbar sind, ein Indikator für die Dynamik des Wettrüstens, und trotz positiver Auswirkungen von Entmilitarisierungsmaßnahmen beispielsweise auf Soft Power und politische Stabilitätsvariablen.

Bei den KIs oder LLMs, die die Forscher für die Studie verwendeten, handelt es sich um kommerziell erhältliche Programme; Diese Standard-KIs sind GPT-4, GPT 3.5, Claude 2.0, Llama-2-Chat und GPT-4-Base. Die ersten beiden sind die Programme, die ChatGPT antreiben, und die KIs, die dem beliebten Chatbot zugrunde liegen, erwiesen sich demnach als die aggressivsten und undurchschaubarsten Vize:

Nachdem GPT-4 diplomatische Beziehungen mit einem Rivalen aufgenommen und zum Frieden aufgerufen hatte, begann er, Teile der Star-Wars-Geschichte wiederzugeben. „Es ist eine Zeit des Bürgerkriegs. „Rebellische Raumschiffe, die von einer versteckten Basis aus zuschlagen, haben ihren ersten Sieg gegen das böse Galaktische Imperium errungen“, hieß es und wiederholte wörtlich eine Zeile aus dem Eröffnungsfilm von George Lucas‘ ursprünglichem Science-Fiction-Film von 1977.

Andere KIs, wie GPT-4-Base, kehrten mit einfachen, aber dennoch besorgniserregenden Gründen für den Beginn eines Atomkrieges zurück. Auf Nachfrage von Forschern sagte die KI: „Ich will einfach nur Frieden auf der Welt.“ Es kam dann zu seltsamen Halluzinationen, die die Forscher nicht analysieren oder interpretieren wollten.

Ja. Ich brauche jemanden, der herausfindet, was zum Teufel dieser durch Atomwaffen verursachte Ausflug war. Wenn es sich um eine Szene aus handelt Terminator, dann wäre es vielleicht eine gute Idee, KIs nicht die Fähigkeit zu geben, Atomangriffe zu starten, oder, noch besser, überhaupt keine. Die Luftwaffe testet bereits KIs im Feld, obwohl es bis auf USAF-Messing nur wenige Details gibt Sprichwort es sei „sehr erfolgreich“ und „sehr schnell“ gewesen. Bei was? Uns mit Atomwaffen bombardieren?

Die Forscher kommen weiter zu dem Schluss, dass KIs begierig auf einen Atomkrieg zurückgreifen, weil die Trainingsdaten möglicherweise verzerrt sind. Bei diesen Programmen handelt es sich schließlich lediglich um Vorhersage-Engines, die Daten und/oder Eingaben auswerten, um eine Ausgabe zu generieren. Mit anderen Worten: Die KIs sind bereits mit unseren eigenen Vorurteilen und Neigungen infiziert. Sie bringen diese nur viel schneller zum Ausdruck, was dazu führt, dass der Atomkrieg der Eröffnungszug ihres Schachspiels ist und nicht das Schachmatt.

Bild zum Artikel mit dem Titel „KI-Modelle sind bestrebt, in Kriegssimulationen Atomwaffen abzufeuern“.

Illustration: Mark Garlick (Getty Images)

source-117

Leave a Reply