KI stellt politische Gefahr für 2024 dar und droht, Wähler in die Irre zu führen: „Wir sind darauf nicht vorbereitet“


WASHINGTON (AP) – Computeringenieure und technikaffine Politikwissenschaftler warnen seit Jahren davor, dass billige, leistungsstarke Tools der künstlichen Intelligenz es bald jedem ermöglichen würden, gefälschte Bilder, Videos und Audiodaten zu erstellen, die realistisch genug sind, um Wähler zu täuschen und möglicherweise eine Wahl zu beeinflussen.

Die synthetischen Bilder, die dabei entstanden, waren oft grobnicht überzeugend und kostspielig in der Produktion, insbesondere wenn andere Arten von Fehlinformationen so kostengünstig und leicht in den sozialen Medien zu verbreiten waren. Die Bedrohung durch KI und sogenannte Deepfakes schien immer ein oder zwei Jahre entfernt zu sein.

Nicht mehr.

Hochentwickelte generative KI-Tools können jetzt geklonte menschliche Stimmen erstellen und hyperrealistische Bilder, Videos und Audio in Sekundenschnelle und zu minimalen Kosten. Wenn diese gefälschten und digital erstellten Inhalte an leistungsstarke Social-Media-Algorithmen gebunden sind, können sie sich weit und schnell verbreiten und ganz bestimmte Zielgruppen ansprechen, wodurch schmutzige Kampagnentricks möglicherweise einen neuen Tiefpunkt erreichen.

Die Auswirkungen auf die Kampagnen und Wahlen im Jahr 2024 sind ebenso groß wie besorgniserregend: Generative KI kann nicht nur schnell gezielte Wahlkampf-E-Mails, -Texte oder -Videos erstellen, sondern könnte auch zur Irreführung von Wählern eingesetzt werdenSie geben sich als Kandidaten aus und untergraben Wahlen in einem noch nie dagewesenen Ausmaß und Tempo.

„Wir sind darauf nicht vorbereitet“, warnte AJ Nash, Vizepräsident für Geheimdienste beim Cybersicherheitsunternehmen ZeroFox. „Der große Fortschritt liegt für mich in den Audio- und Videofunktionen, die entstanden sind. Wenn man das in großem Maßstab machen und auf sozialen Plattformen verbreiten kann, wird das große Auswirkungen haben.“

KI-Experten kann schnell zu einer Reihe alarmierender Szenarien führen, in denen generative KI zur Schaffung synthetischer Medien eingesetzt wird, um Wähler zu verwirren, einen Kandidaten zu verleumden oder sogar zu Gewalt aufzustacheln.

Hier sind einige: Automatisierte Robocall-Nachrichten mit der Stimme eines Kandidaten, die die Wähler anweisen, ihre Stimme am falschen Datum abzugeben; Audioaufnahmen eines Kandidaten, der angeblich ein Verbrechen gesteht oder rassistische Ansichten äußert; Videoaufnahmen, die jemanden zeigen, der eine Rede oder ein Interview hält Sie haben nie gegeben. Gefälschte Bilder, die wie lokale Nachrichtenberichte aussehen sollen und fälschlicherweise behaupten, ein Kandidat sei aus dem Rennen ausgeschieden.

„Was wäre, wenn Elon Musk Sie persönlich anruft und Ihnen sagt, Sie sollen für einen bestimmten Kandidaten stimmen?“ sagte Oren Etzioni, der Gründungs-CEO des Allen Institute for AI, der letztes Jahr zurücktrat, um die gemeinnützige AI2 zu gründen. „Viele Leute würden zuhören. Aber er ist es nicht.“

Der ehemalige Präsident Donald Trump, der im Jahr 2024 kandidiert, hat KI-generierte Inhalte mit seinen Followern in den sozialen Medien geteilt. Ein manipuliertes Video von CNN-Moderator Anderson Cooper, das Trump am Freitag auf seiner Plattform Truth Social geteilt hatte, was Coopers Reaktion auf das CNN-Rathaus verzerrte letzte Woche mit Trumpwurde mit einem KI-Tool zum Klonen von Stimmen erstellt.

Eine dystopische Wahlkampfanzeige, die letzten Monat vom Republikanischen Nationalkomitee veröffentlicht wurde, bietet einen weiteren Einblick in diese digital manipulierte Zukunft. Die Online-Werbung, die geschaltet wurde, nachdem Präsident Joe Biden seinen Wiederwahlkampf angekündigt hatteund beginnt mit einem seltsamen, leicht verzerrten Bild von Biden und dem Text „Was wäre, wenn der schwächste Präsident, den wir je hatten, wiedergewählt würde?“

Es folgt eine Reihe von KI-generierten Bildern: Taiwan wird angegriffen; vernagelte Ladenfronten in den Vereinigten Staaten, während die Wirtschaft zusammenbrach; Soldaten und gepanzerte Militärfahrzeuge patrouillieren auf den örtlichen Straßen, während tätowierte Kriminelle und Einwanderungswellen Panik verbreiten.

„Ein KI-generierter Blick in die mögliche Zukunft des Landes, wenn Joe Biden 2024 wiedergewählt wird“, heißt es in der Beschreibung der Anzeige des RNC.

Der RNC hat seinen Einsatz von KI anerkannt, aber andere, darunter schändliche politische Kampagnen und ausländische Gegner, werden dies nicht tun, sagte Petko Stoyanov, globaler Chief Technology Officer bei Forcepoint, einem Cybersicherheitsunternehmen mit Sitz in Austin, Texas. Stoyanov prognostizierte, dass Gruppen, die sich in die US-Demokratie einmischen wollen, KI und synthetische Medien einsetzen werden, um das Vertrauen zu untergraben.

„Was passiert, wenn eine internationale Einheit – ein Cyberkrimineller oder ein Nationalstaat – sich als jemand ausgibt?. Was sind die Auswirkungen? Haben wir irgendeinen Rückgriff?“ sagte Stojanow. „Wir werden noch viel mehr Fehlinformationen aus internationalen Quellen sehen.“

KI-generierte politische Desinformation hat sich im Vorfeld der Wahl 2024 bereits viral im Internet verbreitet, und zwar anhand eines manipulierten Videos von Biden scheinbar eine Rede zu halten, in der Transgender-Menschen vor KI-generierten Bildern von Kindern angegriffen werden angeblich in Bibliotheken Satanismus lernen.

KI-Bilder scheinen Trumps Fahndungsfoto zu zeigen täuschte auch einige Social-Media-Nutzer, obwohl der ehemalige Präsident keines nahm, als er vor einem Strafgericht in Manhattan wegen der Fälschung von Geschäftsunterlagen angeklagt und angeklagt wurde. Andere KI-generierte Bilder zeigten, wie Trump sich der Festnahme widersetzteobwohl ihr Schöpfer ihren Ursprung schnell erkannte.

Ein Gesetz, das Kandidaten dazu verpflichten würde, mit KI erstellte Wahlkampfanzeigen zu kennzeichnen, wurde im Repräsentantenhaus von der Abgeordneten Yvette Clarke, DN.Y., eingebracht, die auch ein Gesetz unterstützt hat, das von jedem, der synthetische Bilder erstellt, verlangen würde, ein Wasserzeichen hinzuzufügen, das auf diesen Sachverhalt hinweist.

Einige Staaten haben eigene Vorschläge unterbreitet für die Auseinandersetzung mit Bedenken hinsichtlich Deepfakes.

Clarke sagte, ihre größte Angst sei, dass generative KI vor der Wahl 2024 genutzt werden könnte, um ein Video oder Audio zu erstellen, das zu Gewalt anstachelt und die Amerikaner gegeneinander aufhetzt.

„Es ist wichtig, dass wir mit der Technologie Schritt halten“, sagte Clarke gegenüber The Associated Press. „Wir müssen einige Leitplanken aufstellen. Menschen können getäuscht werden, und das dauert nur den Bruchteil einer Sekunde. Die Menschen sind mit ihrem Leben beschäftigt und haben nicht die Zeit, jede einzelne Information zu prüfen. Wenn KI als Waffe eingesetzt wird, könnte das in einer politischen Phase äußerst störend sein.“

Anfang dieses Monats gründete ein Handelsverband für politische Berater in Washington verurteilte den Einsatz von Deepfakes in der politischen Werbung und nennt sie „eine Täuschung“, die „in legitimen, ethischen Kampagnen keinen Platz hat“.

Andere Formen der künstlichen Intelligenz sind seit Jahren ein Bestandteil politischer Kampagnen und nutzen Daten und Algorithmen, um Aufgaben wie die gezielte Ansprache von Wählern in sozialen Medien oder das Aufspüren von Spendern zu automatisieren. Kampagnenstrategen und Tech-Unternehmer hoffen, dass die jüngsten Innovationen auch im Jahr 2024 einige positive Auswirkungen haben werden.

Mike Nellis, CEO der progressiven Digitalagentur Authentic, sagte, er verwende ChatGPT „Jeden Tag“ und ermutigt seine Mitarbeiter, es ebenfalls zu nutzen, sofern alle mit dem Tool erstellten Inhalte anschließend von menschlichen Augen überprüft werden.

Nellis‘ neuestes Projekt in Zusammenarbeit mit Higher Ground Labs ist ein KI-Tool namens Quiller. Es wird Spenden-E-Mails schreiben, versenden und deren Wirksamkeit bewerten – alles typischerweise mühsame Aufgaben bei Kampagnen.

„Die Idee ist, dass jeder demokratische Stratege, jeder demokratische Kandidat einen Copiloten in der Tasche hat“, sagte er.

___

Swenson berichtete aus New York.

___

Die Associated Press erhält Unterstützung von mehreren privaten Stiftungen, um ihre erklärende Berichterstattung über Wahlen und Demokratie zu verbessern. Erfahren Sie mehr über die Demokratieinitiative von AP Hier. Für sämtliche Inhalte ist allein der AP verantwortlich.

___

Verfolgen Sie die Berichterstattung der AP über Fehlinformationen unter https://apnews.com/hub/misinformation und Berichterstattung über künstliche Intelligenz unter https://apnews.com/hub/artificial-intelligence

source-123

Leave a Reply