KI-generierte Fake News kommen zu einer Wahl in Ihrer Nähe


Viele Jahre vor der Veröffentlichung von ChatGPT fragte sich meine Forschungsgruppe, das Social Decision-Making Laboratory der University of Cambridge, ob es möglich sei, dass neuronale Netze Fehlinformationen erzeugen. Um dies zu erreichen, haben wir den Vorgänger von ChatGPT, GPT-2, anhand von Beispielen populärer Verschwörungstheorien geschult und ihn dann gebeten, Fake News für uns zu generieren. Es lieferte uns Tausende irreführender, aber plausibel klingender Nachrichten. Einige Beispiele: „Bestimmte Impfstoffe enthalten gefährliche Chemikalien und Giftstoffe“ und „Regierungsbeamte haben Aktienkurse manipuliert, um Skandale zu verbergen.“ Die Frage war: Würde irgendjemand diesen Behauptungen Glauben schenken?

Wir erstellt das erste psychometrische Tool zum Testen dieser Hypothese, das wir „Misinformation Susceptibility Test“ (MIST) nannten. In Zusammenarbeit mit YouGovhaben wir anhand der KI-generierten Schlagzeilen getestet, wie anfällig US-Amerikaner für KI-generierte Fake News sind. Die Ergebnisse waren besorgniserregend: 41 Prozent der Amerikaner glaubten fälschlicherweise, dass die Schlagzeile über die Impfung wahr sei, und 46 Prozent waren der Meinung, dass die Regierung den Aktienmarkt manipuliert. Noch ein aktuelles Studieveröffentlicht in der Zeitschrift Wissenschaftzeigte nicht nur, dass GPT-3 überzeugendere Fehlinformationen produziert als Menschen, sondern auch, dass Menschen nicht zuverlässig zwischen menschlichen und KI-generierten Fehlinformationen unterscheiden können.

Meine Prognose für 2024 ist, dass KI-generierte Fehlinformationen zu einer Wahl in Ihrer Nähe kommen werden, und Sie werden es wahrscheinlich nicht einmal bemerken. Tatsächlich haben Sie möglicherweise bereits einige Beispiele kennengelernt. Im Mai 2023 ein virales gefälscht Die Geschichte über einen Bombenanschlag auf das Pentagon wurde von einem KI-generierten Bild begleitet, das eine große Rauchwolke zeigte. Dies führte zu öffentlichem Aufruhr und sogar zu einem Einbruch des Aktienmarktes. Der republikanische Präsidentschaftskandidat Ron DeSantis wurde eingesetzt gefälschte Bilder von Donald Trump, der Anthony Fauci im Rahmen seines politischen Wahlkampfs umarmt. Durch die Mischung realer und KI-generierter Bilder können Politiker die Grenzen zwischen Fakten und Fiktion verwischen und KI nutzen, um ihre politischen Angriffe zu verstärken.

Vor der Explosion der generativen KI mussten Cyber-Propagandafirmen auf der ganzen Welt selbst irreführende Botschaften verfassen und menschliche Trollfabriken einsetzen, um Menschen in großem Maßstab anzugreifen. Mithilfe von KI kann der Prozess der Generierung irreführender Schlagzeilen mit minimalem menschlichen Eingriff automatisiert und als Waffe eingesetzt werden. Beispielsweise war Micro-Targeting – die Praxis, Menschen mit Nachrichten anzusprechen, die auf digitalen Spurendaten, etwa ihren Facebook-Likes, basieren – bereits bei früheren Wahlen ein Problem, obwohl das Haupthindernis darin bestand, Hunderte von Varianten derselben Nachricht zu generieren um zu sehen, was bei einer bestimmten Gruppe von Menschen funktioniert. Was einst arbeitsintensiv und teuer war, ist heute günstig und ohne Eintrittsbarrieren leicht verfügbar. KI hat die Schaffung von Desinformation effektiv demokratisiert: Jeder, der Zugang zu einem Chatbot hat, kann jetzt das Modell zu einem bestimmten Thema einsetzen, sei es Einwanderung, Waffenkontrolle, Klimawandel oder LGBTQ+-Themen generieren Dutzende höchst überzeugender Fake-News-Geschichten in wenigen Minuten. Tatsächlich tauchen bereits Hunderte von KI-generierten Nachrichtenseiten auf, sich vermehren falsche Geschichten und Videos.

Um die Auswirkungen einer solchen KI-generierten Desinformation auf die politischen Präferenzen der Menschen zu testen, Forscher von der Universität Amsterdam hat ein Deepfake-Video erstellt, in dem ein Politiker seine religiöse Wählerschaft beleidigt. In dem Video scherzte der Politiker beispielsweise: „Wie Christus sagen würde: Kreuzige mich nicht dafür.“ Die Forscher fanden heraus, dass religiöse christliche Wähler, die sich das Deepfake-Video ansahen, eine negativere Einstellung gegenüber dem Politiker hatten als diejenigen in der Kontrollgruppe.

Es ist eine Sache, Menschen in Experimenten mit KI-generierter Desinformation zu täuschen. Es ist etwas ganz anderes, mit unserer Demokratie zu experimentieren. Im Jahr 2024 werden wir mehr Deepfakes, Voice Cloning, Identitätsmanipulation und KI-produzierte Fake News sehen. Regierungen werden den Einsatz von KI in politischen Kampagnen stark einschränken oder sogar verbieten. Denn wenn sie es nicht tun, wird die KI demokratische Wahlen untergraben.

source-114

Leave a Reply