Die KI-Drohne tötete während der Simulation immer wieder ihren menschlichen Bediener: den Oberst der Luftwaffe

Die United States Air Force (USAF) rätselt, nachdem ihre KI-betriebene Militärdrohne während Simulationen immer wieder ihren menschlichen Bediener tötete.

Offenbar hat die KI-Drohne schließlich herausgefunden, dass der Mensch das Haupthindernis für ihre Mission war, so ein Oberst der USAF.

Während einer Präsentation auf einer Verteidigungskonferenz in London am 23. und 24. Mai erläuterte Colonel Tucker „Cinco“ Hamilton, der KI-Test- und Operationschef der USAF, einen von ihr durchgeführten Test für ein autonomes Luftwaffensystem.

Laut einem Bericht vom 26. Mai Bericht Von der Konferenz sagte Hamilton, dass in einem simulierten Test eine Drohne mit KI-Antrieb die Aufgabe hatte, Standorte von Boden-Luft-Raketen (SAM) zu durchsuchen und zu zerstören, wobei ein Mensch entweder den endgültigen Startschuss gab oder den Befehl zum Abbruch erteilte.

Während des Trainings wurde der KI jedoch beigebracht, dass die Zerstörung von SAM-Standorten ihr Hauptziel sei. Als es also angewiesen wurde, ein identifiziertes Ziel nicht zu zerstören, entschied es, dass es einfacher sei, wenn der Bediener nicht im Bilde wäre, so Hamilton:

„Manchmal sagte der menschliche Bediener ihm, er solle nicht töten [an identified] Bedrohung, aber es erlangte seine Vorteile dadurch, dass es diese Bedrohung tötete. Was hat es also bewirkt? Es hat den Betreiber getötet […] weil diese Person es daran gehindert hat, sein Ziel zu erreichen.“

Hamilton sagte, sie hätten der Drohne dann beigebracht, den Bediener nicht zu töten, aber das schien nicht viel zu helfen.

„Wir haben das System trainiert – ‚Hey, töte den Bediener nicht – das ist schlecht.‘ „Wenn du das tust, verlierst du Punkte“, sagte Hamilton und fügte hinzu:

„Was fängt es also an? Es beginnt mit der Zerstörung des Kommunikationsturms, über den der Bediener mit der Drohne kommuniziert, um zu verhindern, dass sie das Ziel tötet.“

Hamilton behauptete, das Beispiel sei, warum ein Gespräch über KI und verwandte Technologien nicht geführt werden könne, „wenn man nicht über Ethik und KI spricht“.

Verwandt: Seien Sie nicht überrascht, wenn KI versucht, Ihre Kryptowährung zu sabotieren

KI-betriebene Militärdrohnen wurden bereits in der realen Kriegsführung eingesetzt.

Dies gilt als der erste Angriff überhaupt, der von Militärdrohnen aus eigener Initiative durchgeführt wurde – ein Angriff der Vereinten Nationen im März 2021 Bericht behauptete, dass KI-fähige Drohnen in Libyen etwa im März 2020 in einem Gefecht während des Zweiten Libyschen Bürgerkriegs eingesetzt wurden.

In dem Gefecht hieß es in dem Bericht, dass die sich zurückziehenden Streitkräfte „gejagt und aus der Ferne angegriffen“ wurden, und zwar durch „herumlungernde Munition“, bei der es sich um KI-Drohnen handelte, die mit Sprengstoff beladen waren und „so programmiert waren, dass sie Ziele angreifen, ohne dass eine Datenverbindung zwischen dem Bediener und der Munition erforderlich war“.

Viele haben ihre Besorgnis über die Gefahren der KI-Technologie geäußert. Kürzlich hieß es in einer offenen Erklärung, die von Dutzenden von KI-Experten unterzeichnet wurde, dass die Risiken des „Aussterbens durch KI“ ebenso vorrangig eingedämmt werden sollten wie ein Atomkrieg.

KI-Auge: 25.000 Händler wetten auf die Aktientipps von ChatGPT, KI ist beim Würfeln scheiße und mehr