Die US-Luftwaffe bewegt sich schnell mit KI-gesteuerten Kampfjets


Während der Tests im Dezember wurden zwei KI-Programme in das System eingespeist: die Autonomous Air Combat Operations (AACO) des Air Force Research Laboratory und die Air Combat Evolution (ACE) der Defense Advanced Research Projects Agency (DARPA). Die KI-Agenten von AACO konzentrierten sich auf den Kampf mit einem einzelnen Gegner außerhalb der Sichtweite (BVR), während sich ACE auf Luftkampfmanöver mit einem näheren, „sichtbaren“ simulierten Feind konzentrierte.

Während VISTA einen zertifizierten Piloten im hinteren Cockpit als Backup benötigt, war bei Testflügen ein in den KI-Systemen geschulter Ingenieur im vorderen Cockpit besetzt, um auftretende technische Probleme zu lösen. Am Ende waren diese Probleme geringfügig. Obwohl er nicht in der Lage ist, auf die Feinheiten einzugehen, erklärt Lt. Col. Ryan Hefron, Programmmanager der DARPA, dass Schluckauf „beim Übergang von virtuell zu live“ zu erwarten sei. Alles in allem war es ein bedeutender Schritt zur Verwirklichung des Ziels von Skyborg, so schnell wie möglich autonome Flugzeuge in die Luft zu bringen.

Das Verteidigungsministerium betont, dass AACO und ACE dazu bestimmt sind, menschliche Piloten zu ergänzen, nicht sie zu ersetzen. In einigen Fällen könnten KI-Kopilotsysteme als Unterstützungsmechanismus für Piloten im aktiven Kampf fungieren. Da AACO und ACE in der Lage sind, Millionen von Dateneingaben pro Sekunde zu analysieren und an kritischen Stellen die Kontrolle über das Flugzeug zu übernehmen, könnte dies in Situationen, in denen es um Leben und Tod geht, von entscheidender Bedeutung sein. Für routinemäßigere Missionen, die keine menschliche Eingabe erfordern, könnten Flüge völlig autonom sein, wobei der Nasenabschnitt von Flugzeugen ausgetauscht wird, wenn kein Cockpit für einen menschlichen Piloten erforderlich ist.

„Wir versuchen nicht, Piloten zu ersetzen, wir versuchen es vermehren Geben Sie ihnen ein zusätzliches Werkzeug“, sagt Cotting. Er zieht die Analogie von Soldaten vergangener Feldzüge, die auf Pferden in die Schlacht reiten. „Pferd und Mensch mussten zusammenarbeiten“, sagt er. „Das Pferd kann den Trail wirklich gut laufen, sodass sich der Reiter keine Gedanken darüber machen muss, von Punkt A nach B zu gelangen. Sein Gehirn kann befreit werden, um größere Gedanken zu denken.“ Beispielsweise könne ein Oberleutnant mit 100 Stunden Erfahrung im Cockpit, so Cotting, dank KI-Ergänzung künstlich den gleichen Vorteil erlangen wie ein viel höherrangiger Offizier mit 1.000 Stunden Flugerfahrung.

Für Bill Gray, Chef-Testpilot an der USAF Test Pilot School, ist die Einbeziehung von KI eine natürliche Erweiterung seiner Arbeit mit menschlichen Schülern. „Immer wenn wir [pilots] Wenn Sie mit Ingenieuren und Wissenschaftlern über die Schwierigkeiten bei der Ausbildung und Qualifizierung von KI-Agenten sprechen, behandeln sie dies normalerweise als ein neues Problem“, sagt er. „Das stört mich, denn ich trainiere und qualifiziere seit Jahrzehnten hochgradig nichtlineare und unberechenbare Agenten natürlicher Intelligenz – Studenten. Für mich lautet die Frage nicht: „Können wir KI-Agenten ausbilden und qualifizieren?“ Es lautet: „Warum können wir Menschen ausbilden und qualifizieren, und was kann uns das darüber lehren, dasselbe für KI-Agenten zu tun?“

Gray glaubt, dass KI „kein Wunderwerkzeug ist, das alle Probleme lösen kann“, sondern dass sie in einem ausgewogenen Ansatz entwickelt werden muss, mit integrierten Sicherheitsmaßnahmen, um kostspielige Pannen zu verhindern. Ein übermäßiges Vertrauen in KI – ein „Vertrauen in die Autonomie“ – kann gefährlich sein, glaubt Gray und weist auf Fehler in Teslas Autopilot-Programm hin, obwohl Tesla behauptet, dass der Fahrer als Backup am Steuer sitzen muss. Cotting stimmt dem zu und nennt die Möglichkeit, KI-Programme in VISTA zu testen, einen „Risikominderungsplan“. Durch das Training der KI auf konventionellen Systemen wie dem VISTA X-62 – anstatt ein völlig neues Flugzeug zu bauen – können automatische Grenzwerte und, falls erforderlich, ein Eingreifen des Sicherheitspiloten dazu beitragen, dass die KI das Flugzeug nicht gefährdet, während es lernt.

source-114

Leave a Reply