Neonazis setzen voll auf KI


Extremisten in den gesamten USA haben künstliche Intelligenz als Waffe eingesetzt, um Hassreden effizienter zu verbreiten, neue Mitglieder zu rekrutieren und Online-Anhänger in beispiellosem Tempo und Ausmaß zu radikalisieren, so ein neuer Bericht vom Middle East Media Research Institute (MEMRI), einer amerikanischen gemeinnützigen Pressebeobachtungsorganisation.

Der Bericht stellt fest, dass KI-generierte Inhalte mittlerweile einen wesentlichen Bestandteil der Produktion von Extremisten darstellen: Sie entwickeln ihre eigenen KI-Modelle mit extremistischen Einflüssen und experimentieren bereits mit neuartigen Möglichkeiten, die Technologie für sich zu nutzen, darunter die Erstellung von Bauplänen für 3D-Waffen und Bauplänen für Bomben.

Forscher des Domestic Terrorism Threat Monitor, einer Gruppe des Instituts, die speziell in den USA ansässige Extremisten beobachtet, legen in allen Einzelheiten das Ausmaß und den Umfang des Einsatzes künstlicher Intelligenz durch inländische Akteure dar, darunter Neonazis, weiße Rassisten und regierungsfeindliche Extremisten.

„Anfangs gab es ein gewisses Zögern gegenüber dieser Technologie und wir sahen viele Debatten und Diskussionen unter [extremists] online darüber, ob diese Technologie für ihre Zwecke genutzt werden könnte“, sagte Simon Purdue, Direktor des Domestic Terrorism Threat Monitor bei MEMRI, Reportern in einem Briefing Anfang dieser Woche. „In den letzten Jahren haben wir uns von gelegentlichen KI-Inhalten zu einem erheblichen Anteil hasserfüllter Propagandainhalte im Internet entwickelt, insbesondere bei Video- und visueller Propaganda. Mit der Weiterentwicklung dieser Technologie werden wir also sehen, dass Extremisten sie häufiger nutzen.“

Mit Blick auf die US-Wahlen beobachtet Purdues Team eine Reihe beunruhigender Entwicklungen im Einsatz von KI-Technologien durch Extremisten, darunter die weitverbreitete Nutzung von KI-Videotools.

„Der größte Trend, den wir bemerkt haben [in 2024] ist der Aufstieg des Videos“, sagt Purdue. „Letztes Jahr waren KI-generierte Videoinhalte sehr einfach. Dieses Jahr, mit der Veröffentlichung von OpenAIs Sora und anderen Plattformen zur Videogenerierung oder -bearbeitung, haben wir gesehen, wie Extremisten diese als Mittel zur Produktion von Videoinhalten nutzen. Wir haben auch viel Aufregung darüber erlebt, viele Leute sprechen darüber, wie sie damit abendfüllende Filme produzieren könnten.“

Extremisten haben diese Technologie bereits genutzt, um Videos zu erstellen, in denen Präsident Joe Biden während einer Rede rassistische Beleidigungen verwendet und die Schauspielerin Emma Watson laut vorliest mein Kampf während er eine Naziuniform trug.

Letztes Jahr berichtete WIRED darüber, wie Extremisten mit Verbindungen zu Hamas und Hisbollah generative KI-Tools nutzten, um die Hash-Sharing-Datenbank zu untergraben, die es Big-Tech-Plattformen ermöglicht, terroristische Inhalte schnell und koordiniert zu entfernen. Derzeit gibt es keine Lösung für dieses Problem.

Adam Hadley, der Geschäftsführer von Tech Against Terrorism, sagt, er und seine Kollegen hätten bereits Zehntausende von KI-generierten Bildern archiviert, die von Rechtsextremisten erstellt wurden.

„Diese Technologie wird hauptsächlich auf zwei Arten genutzt“, sagt Hadley gegenüber WIRED. „Erstens wird generative KI verwendet, um Bots zu erstellen und zu verwalten, die gefälschte Konten betreiben, und zweitens wird sie, so wie generative KI die Produktivität revolutioniert, auch verwendet, um mit Open-Source-Tools Texte, Bilder und Videos zu generieren. Beide Verwendungszwecke verdeutlichen das erhebliche Risiko, dass terroristische und gewalttätige Inhalte in großem Maßstab produziert und verbreitet werden können.“

source-114

Leave a Reply