Sollten Algorithmen Startcodes für Atomwaffen kontrollieren? Die USA sagen Nein


Am vergangenen Donnerstag, der Das US-Außenministerium hat eine neue Vision für die Entwicklung, Erprobung und Verifizierung von Militärsystemen – einschließlich Waffen – skizziert, die KI nutzen.

Der Politische Erklärung zur verantwortungsvollen militärischen Nutzung künstlicher Intelligenz und Autonomie stellt einen Versuch der USA dar, die Entwicklung der militärischen KI zu einem für die Technologie entscheidenden Zeitpunkt zu steuern. Das Dokument bindet das US-Militär nicht rechtlich, aber die Hoffnung ist, dass verbündete Nationen seinen Prinzipien zustimmen und eine Art globalen Standard für den verantwortungsvollen Bau von KI-Systemen schaffen.

In der Erklärung heißt es unter anderem, dass militärische KI gemäß internationalen Gesetzen entwickelt werden muss, dass Nationen transparent über die Prinzipien ihrer Technologie sein sollten und dass hohe Standards für die Überprüfung der Leistung von KI-Systemen implementiert werden. Es besagt auch, dass Menschen allein Entscheidungen über den Einsatz von Atomwaffen treffen sollten.

Wenn es um autonome Waffensysteme geht, haben US-Militärführer oft versichert, dass ein Mensch bei Entscheidungen über den Einsatz tödlicher Gewalt „auf dem Laufenden“ bleiben wird. Aber die offizielle Politikerstmals 2012 vom DOD herausgegeben und dieses Jahr aktualisiert, benötigt nicht dies der Fall sein.

Versuche, ein internationales Verbot autonomer Waffen zu schmieden, sind bisher gescheitert. Der Internationales Rotes Kreuz und Kampagnengruppen wie Stoppen Sie Killer-Roboter haben bei den Vereinten Nationen auf eine Einigung gedrängt, aber einige Großmächte – die USA, Russland, Israel, Südkorea und Australien – haben sich als unwillig erwiesen, sich zu verpflichten.

Ein Grund dafür ist, dass viele im Pentagon den verstärkten Einsatz von KI im gesamten Militär, auch außerhalb von Nichtwaffensystemen, als lebenswichtig – und unvermeidlich – ansehen. Sie argumentieren, dass ein Verbot den Fortschritt der USA verlangsamen und ihre Technologie gegenüber Gegnern wie China und Russland behindern würde. Der Krieg in der Ukraine hat gezeigt, wie schnell Autonomie in Form billiger Wegwerfdrohnen, die dank maschineller Lernalgorithmen, die ihnen bei der Wahrnehmung und beim Handeln helfen, immer leistungsfähiger werden, dazu beitragen können, in einem Konflikt einen Vorteil zu verschaffen.

Anfang dieses Monats schrieb ich über die persönliche Mission des ehemaligen Google-CEO Eric Schmidt, die KI des Pentagon zu verstärken, um sicherzustellen, dass die USA nicht hinter China zurückfallen. Es war nur eine Geschichte, die sich aus den monatelangen Berichten über Bemühungen zur Einführung von KI in kritischen Militärsystemen ergab und wie dies zu einem zentralen Bestandteil der US-Militärstrategie wird – selbst wenn viele der beteiligten Technologien in Krisen noch im Entstehen begriffen und unerprobt sind.

Lauren Kahn, wissenschaftliche Mitarbeiterin beim Council on Foreign Relations, begrüßte die neue US-Erklärung als potenziellen Baustein für einen verantwortungsvolleren Umgang mit militärischer KI auf der ganzen Welt.

Twitter-Inhalte

Dieser Inhalt kann auch auf der Website angezeigt werden stammt aus.

Einige Nationen haben bereits Waffen, die unter begrenzten Umständen ohne direkte menschliche Kontrolle funktionieren, wie beispielsweise Raketenabwehrsysteme, die mit übermenschlicher Geschwindigkeit reagieren müssen, um effektiv zu sein. Ein stärkerer Einsatz von KI könnte mehr Szenarien bedeuten, in denen Systeme autonom agieren, beispielsweise wenn Drohnen außerhalb der Kommunikationsreichweite oder in Schwärmen operieren, die zu komplex sind, als dass ein Mensch sie verwalten könnte.

Einige Proklamationen über die Notwendigkeit von KI in Waffen, insbesondere von Unternehmen, die die Technologie entwickeln, scheinen immer noch ein wenig weit hergeholt. Da waren Berichte über vollständig autonome Waffen, die in jüngsten Konflikten eingesetzt wurden und von KI hilft bei gezielten Militärschlägenaber diese wurden nicht verifiziert, und in Wahrheit mögen viele Soldaten Systeme misstrauen, die sich auf Algorithmen stützen, die alles andere als unfehlbar sind.

Doch wenn autonome Waffen nicht verboten werden können, wird ihre Entwicklung weitergehen. Daher muss sichergestellt werden, dass sich die beteiligte KI wie erwartet verhält – selbst wenn die Technik, die erforderlich ist, um Absichten wie die in der neuen US-Erklärung vollständig umzusetzen, noch perfektioniert werden muss.



source-114

Leave a Reply