Der Boom der generativen KI könnte ein neues internationales Wettrüsten auslösen


Regierungen rund um die Die Welt beeilt sich, die Algorithmen anzunehmen, die ChatGPT einen Anschein von Intelligenz verliehen haben, und ist offenbar begeistert von dem enormen wirtschaftlichen Nutzen, der von der Technologie erwartet wird.

Zwei neue Berichte, die diese Woche veröffentlicht werden, zeigen, dass Nationalstaaten wahrscheinlich auch darauf drängen, dieselbe Technologie in Waffen zur Desinformation umzuwandeln, was zu einem besorgniserregenden KI-Wettrüsten zwischen Großmächten führen könnte.

Forscher von RAND, einer gemeinnützigen Denkfabrik, die die US-Regierung berät, verweisen auf Beweise dafür, dass ein chinesischer Militärforscher, der Erfahrung mit Informationskampagnen hat, öffentlich darüber diskutiert, wie generative KI bei dieser Arbeit helfen könnte. In einem Forschungsartikel vom Januar 2023 wird die Verwendung großer Sprachmodelle wie einer fein abgestimmten Version von Googles BERT vorgeschlagen, einem Vorläufer der leistungsfähigeren und leistungsfähigeren Sprachmodelle, die Chatbots wie ChatGPT antreiben.

„Es gibt derzeit keine Beweise dafür, dass dies geschieht“, sagt er William Marcellino, ein KI-Experte und leitender Verhaltens- und Sozialwissenschaftler bei RAND, der zu dem Bericht beigetragen hat. „Eher sagt jemand: ‚Hier ist ein Weg nach vorne.‘“ Er und andere bei RAND sind beunruhigt über die Aussicht, dass Einflusskampagnen dank generativer KI ein neues Ausmaß und eine neue Kraft erhalten. „Ein System zu entwickeln, um Millionen gefälschter Konten zu erstellen, die vorgeben, Taiwaner, Amerikaner oder Deutsche zu sein, die ein staatliches Narrativ vorantreiben – ich denke, das ist qualitativ und quantitativ anders“, sagt Marcellino.

Online-Informationskampagnen, wie die, die die russische Internet Research Agency führte, um die US-Wahlen 2016 zu untergraben, gibt es schon seit Jahren. Sie waren größtenteils auf Handarbeit angewiesen – menschliche Arbeiter, die sich an Tastaturen abmühten. Aber in den letzten Jahren entwickelte KI-Algorithmen könnten möglicherweise Texte, Bilder und Videos in Massenproduktion produzieren, die darauf abzielen, Menschen auf Social-Media-Plattformen zu täuschen oder zu überzeugen oder sogar überzeugende Interaktionen mit ihnen durchzuführen. Ein aktuelles Projekt legt nahe, dass der Start einer solchen Kampagne nur ein paar hundert Dollar kosten könnte.

Marcellino und seine Co-Autoren stellen fest, dass viele Länder – darunter auch die USA – mit ziemlicher Sicherheit den Einsatz generativer KI für ihre eigenen Informationskampagnen prüfen. Und die breite Zugänglichkeit generativer KI-Tools, einschließlich zahlreicher Open-Source-Sprachmodelle, die jeder erhalten und ändern kann, senkt die Hürde für jeden, der eine Informationskampagne starten möchte. „Eine Vielzahl von Akteuren könnte generative KI zur Manipulation sozialer Medien nutzen, darunter auch technisch versierte nichtstaatliche Akteure“, schreiben sie.

Ein zweiter Bericht, der diese Woche von einem anderen technologieorientierten Think Tank veröffentlicht wurde, dem Spezielles Wettbewerbsstudienprojektwarnt außerdem davor, dass generative KI bald eine Möglichkeit für Nationen sein könnte, sich gegenseitig zu beeinflussen. Darin wird die US-Regierung aufgefordert, stark in generative KI zu investieren, da die Technologie verspricht, viele verschiedene Industrien anzukurbeln und „neue militärische Fähigkeiten, wirtschaftlichen Wohlstand und kulturellen Einfluss“ für das Land zu schaffen, das sie zuerst beherrscht.

Wie der RAND-Bericht kommt auch die Analyse des SCSP zu düsteren Schlussfolgerungen. Es warnt davor, dass das Potenzial der generativen KI wahrscheinlich einen Wettrüsten auslösen wird, um die Technologie für den Einsatz durch das Militär oder für Cyberangriffe anzupassen. Wenn beides Recht hat, stehen wir vor einem Wettrüsten im Informationsraum, das sich als besonders schwer einzudämmen erweisen könnte.

Wie lässt sich das Albtraumszenario vermeiden, dass das Internet mit KI-Bots überschwemmt wird, die für den Informationskrieg programmiert sind? Es erfordert, dass Menschen miteinander reden.

Der SCSP-Bericht empfiehlt, dass die USA „das globale Engagement vorantreiben sollten, um Transparenz zu fördern, Vertrauen zu fördern und die Zusammenarbeit zu fördern“. Die RAND-Forscher empfehlen US-amerikanischen und chinesischen Diplomaten, über generative KI und die mit der Technologie verbundenen Risiken zu diskutieren. „Es kann in unser aller Interesse liegen, dass das Internet nicht völlig verschmutzt und unglaubwürdig ist“, sagt Marcellino. Ich denke, da sind wir uns alle einig.

source-114

Leave a Reply