Das Pentagon nutzte die von Project Maven entwickelte KI, um Luftangriffsziele zu identifizieren


Das US-Militär hat nach den Hamas-Angriffen auf Israel am 7. Oktober den Einsatz künstlicher Intelligenz verstärkt, wie aus einem neuen Bericht von hervorgeht Bloomberg. Schuyler Moore, Chief Technology Officer des US Central Command, sagte der Nachrichtenorganisation, dass maschinelle Lernalgorithmen dem Pentagon geholfen hätten, Ziele für mehr als 85 Luftangriffe im Nahen Osten in diesem Monat zu identifizieren.

US-Bomber und Kampfflugzeuge führten diese Luftangriffe am 2. Februar gegen sieben Einrichtungen im Irak und in Syrien durch und zerstörten dabei Raketen, Flugkörper, Drohnenlager und Milizen-Einsatzzentren vollständig oder beschädigten sie zumindest. Das Pentagon hatte mithilfe von KI-Systemen auch Raketenwerfer im Jemen und Überwasserkämpfer im Roten Meer aufgespürt und diese dann im selben Monat durch mehrere Luftangriffe zerstört.

Die maschinellen Lernalgorithmen zur Eingrenzung von Zielen wurden im Rahmen von Project Maven entwickelt, der inzwischen aufgelösten Partnerschaft von Google mit dem Pentagon. Genauer gesagt beinhaltete das Projekt den Einsatz der künstlichen Intelligenz von Google durch das US-Militär, um Drohnenaufnahmen zu analysieren und Bilder zur weiteren menschlichen Überprüfung zu markieren. Es sorgte für Aufruhr unter den Google-Mitarbeitern: Tausende hatten das Unternehmen aufgefordert, die Partnerschaft mit dem Pentagon zu beenden, und einige hatten die Beteiligung sogar ganz aufgegeben. Wenige Monate nach diesem Mitarbeiterprotest beschloss Google, seinen 2019 ausgelaufenen Vertrag nicht zu verlängern.

Moore erzählte Bloomberg dass die US-Streitkräfte im Nahen Osten nicht aufgehört haben, mit dem Einsatz von Algorithmen zu experimentieren, um potenzielle Ziele mithilfe von Drohnen- oder Satellitenbildern zu identifizieren, selbst nachdem Google sein Engagement beendet hatte. Das Militär habe ihren Einsatz im vergangenen Jahr in digitalen Übungen getestet, sagte sie, habe aber nach den Hamas-Anschlägen vom 7. Oktober damit begonnen, Zielalgorithmen in tatsächlichen Operationen einzusetzen. Sie stellte jedoch klar, dass menschliche Mitarbeiter die Zielempfehlungen der KI-Systeme ständig überprüften und verifizierten. Menschliches Personal war es auch, das vorschlug, wie die Angriffe durchgeführt und welche Waffen eingesetzt werden sollten. „Es gibt nie einen Algorithmus, der einfach nur läuft, zu einem Ergebnis kommt und dann zum nächsten Schritt übergeht“, sagte sie. „Jeder Schritt, bei dem KI zum Einsatz kommt, wird am Ende von einem Menschen begleitet.“

source-115

Leave a Reply