Berichten zufolge nutzen die USA KI, um zu entscheiden, wo Bomben abgeworfen werden sollen


Wenn Sie sich gefragt haben, wann unser Militär beginnen würde Einsatz künstlicher Intelligenz auf dem Schlachtfeld, die Antwort ist, dass es anscheinend bereits passiert. Einem Bericht zufolge nutzt das Pentagon Computer-Vision-Algorithmen, um Ziele für Luftangriffe zu identifizieren Bericht von Bloomberg News. Erst kürzlich wurden diese Algorithmen bei der Durchführung von mehr als 85 Luftangriffen im Rahmen einer Mission im Nahen Osten eingesetzt.

Bei den fraglichen Bombenanschlägen, die am 2. Februar in verschiedenen Teilen des Irak und Syriens stattfanden, „zerstörten oder beschädigten unter anderem Raketen, Flugkörper, Drohnenlager und Operationszentren der Milizen“, berichtet Bloomberg. Sie waren Teil einer organisierten Reaktion der Biden-Regierung auf die Drohnenangriff im Januar in Jordanien Dabei kamen drei US-Soldaten ums Leben. Die Regierung machte vom Iran unterstützte Aktivisten für den Angriff verantwortlich.

Bloomberg zitiert Schuyler Moore, Chief Technology Officer des US Central Command, der über den Einsatz von KI im Pentagon sagte: „Wir haben Computer Vision eingesetzt, um zu erkennen, wo es Bedrohungen geben könnte.“ Computer Vision als Fachgebiet dreht sich um das Training von Algorithmen um bestimmte Objekte visuell zu identifizieren. Die Algorithmen, die bei den jüngsten Bombenanschlägen der Regierung halfen, wurden im Rahmen von entwickelt Projekt Maven, ein Programm, das den Einsatz von Automatisierung im gesamten Verteidigungsministerium vorantreiben soll. Maven war ursprünglich im Jahr 2017 gestartet.

Der Einsatz von KI zur „Ziel“-Erfassung scheint Teil eines wachsenden Trends zu sein – und noch dazu ein beunruhigender. Ende letzten Jahres wurde berichtet, dass Israel nutzte KI-Software, um zu entscheiden, wo Bomben abgeworfen werden sollten im Gazastreifen. Israels Programm, das es „Das Evangelium“ nennt, ist darauf ausgelegt, riesige Datenmengen zu sammeln und dann einem menschlichen Analysten ein Ziel zu empfehlen. Dieses „Ziel“ könnte eine Waffe, ein Fahrzeug oder ein lebender Mensch sein. Das Programm könne bis zu 200 Ziele in einem Zeitraum von nur 10 bis 12 Tagen vorschlagen, sagten israelische Beamte. Israelis sagen auch, dass die gezielten Angriffe nur der erste Teil eines umfassenderen Überprüfungsprozesses seien, an dem menschliche Analysten beteiligt sein können.

Auch wenn der Einsatz von Software zur Identifizierung von Bombenzielen wie ein Prozess erscheint, der zu schrecklichen Fehlern neigt, ist es erwähnenswert, dass die USA historisch gesehen ohnehin nicht besonders gut darin waren, herauszufinden, wo Bomben abgeworfen werden sollen. Wenn Sie sich erinnern, waren frühere Regierungen dazu anfällig Verwechseln Sie Hochzeitsfeiern mit Terroristen-Hauptquartieren. Solche Aufrufe könnte man genauso gut einem Softwareprogramm überlassen, oder? Es scheint, als ob es auf diese Weise weniger menschliches Verschulden geben könnte. Wenn die falsche Person getötet wird oder Sie eine Medikamentenfabrik statt eines Munitionslagers bombardieren, können Sie immer nur einen Softwarefehler dafür verantwortlich machen.

source-113

Leave a Reply