China setzt in seiner Propaganda auf KI und verspottet den „amerikanischen Traum“


Taipei, Taiwan – „Der amerikanische Traum. Sie sagen, es gilt für alle, aber ist das wirklich so?“

So beginnt ein 65-sekündiges, KI-generiertes animiertes Video, das aktuelle Themen in den Vereinigten Staaten anspricht, von Drogenabhängigkeit und Inhaftierungsraten bis hin zu wachsender Vermögensungleichheit.

Während sich Sturmwolken über einer Stadtlandschaft zusammenziehen, die New York City ähnelt, hängen am Ende des Videos die Worte „AMERICAN DREAM“ am sich verdunkelnden Himmel.

Die Botschaft ist klar: Trotz ihrer Versprechen eines besseren Lebens für alle befinden sich die Vereinigten Staaten im endgültigen Niedergang.

Das Video mit dem Titel „American Dream“ oder „American Mirage“ ist einer von mehreren Abschnitten, die vom chinesischen Staatssender CGTN als Teil seiner Zeichentrickserie „A Fractured America“ ausgestrahlt und in den sozialen Medien weit verbreitet werden.

Andere Videos der Serie enthalten ähnliche Titel, die Bilder einer dystopischen Gesellschaft heraufbeschwören, etwa „Amerikanische Arbeiter in Aufruhr: Ein Ergebnis unausgeglichener Politik und Wirtschaft“ und „Entlarvung der wahren Bedrohung: Amerikas militärisch-industrieller Komplex“.

Abgesehen von ihrer schrillen antiamerikanischen Botschaft teilen die Videos alle die gleiche KI-generierte hyperstilisierte Ästhetik und den unheimlichen computergenerierten Ton.

CGTN und die chinesische Botschaft in Washington, D.C. antworteten nicht auf Anfragen nach Kommentaren.

Die Serie „Fractured America“ ist nur ein Beispiel dafür, wie künstliche Intelligenz (KI) mit ihrer Fähigkeit, mit minimalem Aufwand in Sekundenschnelle hochwertige Multimedia-Inhalte zu generieren, beginnt, Pekings Propagandabemühungen zu prägen, um das Ansehen der Vereinigten Staaten in der Welt zu untergraben.

Henry Ajder, ein in Großbritannien ansässiger Experte für generative KI, sagte, die CGTN-Serie versuche zwar nicht, sich als echtes Video auszugeben, sei aber ein klares Beispiel dafür, wie KI die Produktion von Inhalten viel einfacher und kostengünstiger gemacht habe.

„Der Grund dafür, dass sie es auf diese Weise gemacht haben, ist, dass man dafür einen Animator und einen Synchronsprecher engagieren könnte, aber das würde am Ende wahrscheinlich zeitaufwändiger sein. Es würde am Ende wahrscheinlich teurer werden“, sagte Ajder gegenüber Al Jazeera.

„Dies ist eine kostengünstigere Möglichkeit, die Erstellung von Inhalten zu skalieren. Wenn Sie all diese verschiedenen Module zusammenstellen können, können Sie Bilder generieren, Sie können diese Bilder animieren und Sie können einfach Videos von Grund auf erstellen. Sie können eine ziemlich überzeugende, ziemlich menschlich klingende Text-to-Speech-Sprache erstellen. Sie verfügen also über eine komplette Content-Erstellungspipeline, automatisiert oder zumindest hochgradig synthetisch generiert.“

China nutzt seit langem die enorme Reichweite und Grenzenlosigkeit des Internets, um Einflusskampagnen im Ausland durchzuführen.

Chinas riesige Internet-Trollarmee, bekannt als „Wumao“, wurde vor mehr als einem Jahrzehnt dafür bekannt, dass sie Websites mit Gesprächsthemen der Kommunistischen Partei Chinas überschwemmte.

Seit dem Aufkommen der sozialen Medien haben sich Pekings Propagandabemühungen auf Plattformen wie X und Facebook sowie Online-Influencer konzentriert.

Als die Proteste gegen „Black Lives Matter“ im Jahr 2020 nach der Ermordung von George Floyd die USA erfassten, drückten staatliche chinesische Social-Media-Konten ihre Unterstützung aus, auch wenn Peking die Kritik an der Diskriminierung ethnischer Minderheiten wie der uigurischen Muslime im eigenen Land einschränkte.

In einem Bericht aus dem letzten Jahr sagte das Threat Analysis Center von Microsoft, dass KI die Produktion viraler Inhalte erleichtert und es in einigen Fällen schwieriger gemacht habe, zu erkennen, ob Material von einem staatlichen Akteur produziert wurde.

Laut Microsoft setzen staatlich unterstützte chinesische Akteure seit mindestens März 2023 KI-generierte Inhalte ein, und solche „relativ hochwertigen visuellen Inhalte haben bereits ein höheres Maß an Engagement bei authentischen Social-Media-Nutzern hervorgerufen“.

„Im vergangenen Jahr hat China eine neue Fähigkeit entwickelt, automatisch Bilder zu generieren, die es für Einflussoperationen verwenden kann, um US-Wähler im gesamten politischen Spektrum nachzuahmen und Kontroversen entlang rassischer, wirtschaftlicher und ideologischer Gesichtspunkte zu erzeugen“, heißt es in dem Bericht.

„Diese neue Funktion basiert auf künstlicher Intelligenz, die versucht, qualitativ hochwertige Inhalte zu erstellen, die in sozialen Netzwerken in den USA und anderen Demokratien viral gehen könnten.“

Microsoft hat außerdem mehr als 230 Mitarbeiter staatlicher Medien identifiziert, die sich als Social-Media-Influencer ausgeben und über die Kapazität verfügen, 103 Millionen Menschen in mindestens 40 Sprachen zu erreichen.

Ihre Gesprächsthemen folgten einem ähnlichen Drehbuch wie in der CGTN-Videoserie: China ist auf dem Vormarsch und gewinnt den Wettbewerb um die wirtschaftliche und technologische Vormachtstellung, während die USA auf den Zusammenbruch zusteuern und Freunde und Verbündete verlieren.

Da KI-Modelle wie Sora von OpenAI zunehmend hyperrealistische Videos, Bilder und Audio produzieren, wird es voraussichtlich schwieriger, KI-generierte Inhalte zu identifizieren und die Verbreitung von Deepfakes voranzutreiben.

Astroturfing, die Praxis, den Anschein eines breiten gesellschaftlichen Konsenses zu bestimmten Themen zu erwecken, könnte laut einem im letzten Jahr veröffentlichten Bericht von RAND, einer Denkfabrik, die teilweise von der US-Regierung finanziert wird, eine „revolutionäre Verbesserung“ darstellen.

Die CGTN-Videoserie verwendet zwar teilweise eine umständliche Grammatik, spiegelt jedoch viele der Beschwerden wider, die US-Bürger auf Plattformen wie X, Facebook, TikTok, Instagram und Reddit geäußert haben – Websites, die von KI-Modellen nach Trainingsdaten durchsucht werden.

Microsoft sagte in seinem Bericht, dass das Aufkommen von KI die Aussicht auf eine Einmischung Pekings in die US-Präsidentschaftswahl 2024 zwar nicht mehr oder weniger wahrscheinlich mache, „jedoch sehr wahrscheinlich jede potenzielle Wahleinmischung wirksamer macht, wenn Peking sich tatsächlich dazu entschließt, sich einzumischen“. .

Die USA sind nicht das einzige Land, das sich vor einem turbulenten Wahljahr Sorgen über die Aussicht auf KI-generierte Inhalte und Astroturfing macht.

Bis Ende 2024 werden mehr als 60 Länder Wahlen abgehalten haben, die 2 Milliarden Wähler betreffen – ein Rekordjahr für die Demokratie.

Zu ihnen gehört das demokratische Taiwan, das am 13. Januar einen neuen Präsidenten, William Lai Ching-te, gewählt hat.

Taiwan ist ebenso wie die USA aufgrund seines umstrittenen politischen Status ein häufiges Ziel von Pekings Einflussoperationen.

Beiijijng beansprucht Taiwan und seine vorgelagerten Inseln als Teil seines Territoriums, obwohl es de facto als unabhängiger Staat fungiert.

Im Vorfeld der Wahlen im Januar wurden dem chinesischen Ministerium für Staatssicherheit mehr als 100 Deepfake-Videos von Fake-News-Moderatoren zugeschrieben, die die scheidende taiwanesische Präsidentin Tsai Ing-wen angriffen, berichtete die Taipei Times unter Berufung auf nationale Sicherheitsquellen.

William Lai
Taiwan wählte im Januar William Lai Ching-te zu seinem nächsten Präsidenten [Louise Delmotte/AP]

Ähnlich wie die CGTN-Videoserie mangelte es den Videos an Raffinesse, sie zeigten jedoch, wie KI dabei helfen könnte, Falschinformationen in großem Maßstab zu verbreiten, sagte Chihhao Yu, der Co-Direktor des Taiwan Information Environment Research Center (IORG).

Yu sagte, seine Organisation habe die Verbreitung von KI-generierten Inhalten auf LINE, Facebook, TikTok und YouTube während der Wahl verfolgt und festgestellt, dass KI-generierte Audioinhalte besonders beliebt seien.

„[The clips] werden oft über soziale Medien verbreitet und als durchgesickerte/geheime Aufnahmen von politischen Persönlichkeiten oder Kandidaten über Skandale um persönliche Angelegenheiten oder Korruption dargestellt“, sagte Yu gegenüber Al Jazeera.

Deepfake-Audio ist für Menschen im Vergleich zu manipulierten oder KI-generierten Bildern auch schwerer von der Realität zu unterscheiden, sagte Ajder, der KI-Experte.

In einem aktuellen Fall im Vereinigten Königreich, wo in der zweiten Hälfte des Jahres 2024 Parlamentswahlen erwartet werden, war Oppositionsführer Keir Starmer in einem gefälschten Audioclip zu sehen, der zu zeigen schien, wie er Mitarbeiter verbal beschimpft.

Eine solch überzeugende Falschdarstellung wäre bisher ohne einen „tadellosen Impressionisten“ unmöglich gewesen, sagte Ajder.

„Staatsnahe oder staatsnahe Akteure, die Motive haben – sie haben Dinge, die sie potenziell erreichen wollen – verfügen jetzt über ein neues Werkzeug, um zu versuchen, dies zu erreichen“, sagte Ajder.

„Und einige dieser Tools werden ihnen einfach dabei helfen, Dinge zu skalieren, die sie bereits getan haben. Aber in manchen Kontexten kann es ihnen durchaus dabei helfen, diese Ziele zu erreichen, und zwar mit völlig neuen Mitteln, auf die die Regierungen ohnehin nicht reagieren können.“



source-120

Leave a Reply