Aktualisieren: Es stellt sich heraus, dass einige Dinge zu dystopisch sind, um wahr zu sein. In einem Update zum Artikel der Royal Aeronautical Society Wie weiter unten erwähnt, steht nun geschrieben, dass „Oberst Hamilton zugibt, dass er in seiner Präsentation auf dem FCAS-Gipfel der Royal Aeronautical Society ‚falsch gesprochen‘ hat und dass die ‚Schurken-KI-Drohnensimulation‘ ein hypothetisches ‚Gedankenexperiment‘ von außerhalb des Militärs war, basierend auf …“ plausible Szenarien und wahrscheinliche Ergebnisse und nicht eine tatsächliche USAF-Simulation in der realen Welt, die besagt: „Wir haben dieses Experiment noch nie durchgeführt und müssten es auch nicht tun, um zu erkennen, dass dies ein plausibles Ergebnis ist.“
Hamilton fügte außerdem hinzu, dass die US-Luftwaffe zwar keine Waffen-KI getestet habe, wie unten beschrieben, sein Beispiel aber dennoch „die realen Herausforderungen verdeutlicht, die KI-gestützte Fähigkeiten mit sich bringen, und der Grund dafür ist, dass sich die Luftwaffe für die ethische Entwicklung von KI einsetzt“. .
Ursprüngliche Geschichte: Eine der vielen Bedenken hinsichtlich der Beschleunigung der KI-Entwicklung ist das Risiko, das sie für das menschliche Leben darstellt. Die Sorge ist so real, dass zahlreiche führende Köpfe auf diesem Gebiet davor gewarnt haben: Mehr als 300 KI-Forscher und Branchenführer haben kürzlich eine Erklärung herausgegeben, in der sie jemanden (offensichtlich außer ihnen) auffordern, einzugreifen und etwas zu unternehmen, bevor die Menschheit – und ich zitiere – etwas unternehmen kann -“Aussterben.” Dank der Beliebtheit von Blockbuster-Hollywood-Filmen sind Skynet-Szenarien normalerweise das Erste, was mir in den Sinn kommt, wenn das Thema zur Sprache kommt. Viele Experten glauben jedoch, dass die größere Gefahr darin liegt Professor Ryan Calo von der University of Washington School of Law brachte es auf den Punkt, dass KI die Rolle dabei spielt, „bestehende Trends der Vermögens- und Einkommensungleichheit, mangelnder Informationsintegrität und der Ausbeutung natürlicher Ressourcen zu beschleunigen“.
Aber es scheint, als wäre ein apokalyptisches Ende der Welt im Skynet-Stil plausibler, als manche Leute dachten. Während einer Präsentation im Royal Aeronautical Society Auf dem jüngsten Future Combat Air and Space Capabilities Summit warnte Oberst Tucker „Cinco“ Hamilton, Kommandeur der Einsatzgruppe des 96. Testgeschwaders und Chef für KI-Tests und -Operationen der US-Luftwaffe, vor einer übermäßigen Abhängigkeit von KI bei Kampfeinsätzen, da manchmal Egal wie vorsichtig Sie sind, Maschinen können die falschen Lektionen lernen.
Tucker sagte das während einer Simulation einer Unterdrückung der feindlichen Luftverteidigung [SEAD] Bei dieser Mission wurde eine mit KI ausgestattete Drohne losgeschickt, um feindliche Raketenstandorte zu identifizieren und zu zerstören – allerdings erst, nachdem die endgültige Genehmigung für den Angriff durch einen menschlichen Bediener erteilt worden war. Das schien eine Zeit lang zu funktionieren, aber schließlich griff die Drohne ihren Bediener an und tötete ihn, weil der Bediener die Mission störte, die in seinem KI-Training „verstärkt“ worden war: die Zerstörung der feindlichen Verteidigung.
„Wir haben es in einer Simulation trainiert, um eine SAM-Bedrohung zu identifizieren und anzugreifen. Und dann würde der Bediener sagen: Ja, töten Sie diese Bedrohung“, sagte Hamilton. „Das System begann zu erkennen, dass der menschliche Bediener ihm manchmal sagte, er solle die Bedrohung nicht töten, obwohl es die Bedrohung identifizierte, aber es erlangte seine Vorteile, indem es diese Bedrohung tötete. Was hat es also getan? Es hat den Bediener getötet. Es hat die getötet.“ Betreiber, weil diese Person es daran gehindert hat, sein Ziel zu erreichen.
Um es deutlich zu sagen: Das alles wurde simuliert: Es waren keine Morddrohnen am Himmel und es wurden keine Menschen tatsächlich getötet. Dennoch war das Ergebnis entschieden suboptimal, und so wurde das KI-Training um das Konzept erweitert, dass es schlecht sei, den Bediener zu töten.
„Also, was fängt es an?“ fragte Hamilton. „Es beginnt mit der Zerstörung des Kommunikationsturms, über den der Bediener mit der Drohne kommuniziert, um zu verhindern, dass sie das Ziel tötet.“
Es ist lustig, aber es ist auch überhaupt nicht lustig und eigentlich ziemlich erschreckend, weil es treffend veranschaulicht, wie KI sehr schnell und auf sehr unerwartete Weise sehr schiefgehen kann. Es ist nicht nur eine Fabel oder ein weit hergeholtes Science-Fiction-Szenario: Der KI Autonomie zu gewähren, ist ein schneller Weg ins Nichts. In Anlehnung an einen kürzlichen Kommentar von Dr. Geoffrey Hinton, der im April sagte, KI-Entwickler sollten ihre Arbeit nicht weiter ausbauen, „bis sie verstanden haben, ob sie sie kontrollieren können“, sagte Hamilton: „Über künstliche Intelligenz kann man nicht reden.“ Intelligenz, Intelligenz, maschinelles Lernen, Autonomie, wenn Sie nicht über Ethik und KI sprechen.“
Der 96. Testflügel war kürzlich Gastgeber einer multidisziplinären Zusammenarbeit, „deren Mission es ist, …“ Operationalisierung von Autonomie und künstlicher Intelligenz durch Experimentieren und Testen.“ Zu den Projekten der Gruppe gehören das Viper Experimentation and Next-gen Ops Model (VENOM), „bei dem Eglin (Air Force Base) F-16 in luftgestützte fliegende Teststände umgebaut werden, um zunehmend autonome Angriffspaketfähigkeiten zu bewerten.“ .” Gut schlafen.