Erste große Studienergebnisse zeigen, dass Deepfakes aus Kriegszeiten tatsächlich die Realität verwischen


Am 14. März, nur etwa einen Monat nachdem russische Truppen den Westen der Ukraine gestürmt hatten, um einen einjährigen blutigen Kampf zu beginnen, trat der ukrainische Präsident Wladimir Selenskyj in einem ukrainischen Fernsehsender auf und verkündete seine bedingungslose Kapitulation. Der Präsident, der sein mittlerweile ikonisches, militärgrünes Langarmhemd trug, schien in die Kamera zu starren und zu behaupten, das ukrainische Militär würde „kapitulieren“ und „die Waffen abgeben“.

Fake-Video von Wolodymyr Selenskyjs Kapitulation taucht in den sozialen Medien auf

Etwa zur gleichen Zeit erschien auf Social-Media-Seiten ein weiteres kurzes Video, das offenbar zeigte, wie Selenskyjs Kontrahent, der russische Präsident Wladimir Putin, ebenfalls ein Friedensabkommen verkündete.

„Wir haben es geschafft, Frieden mit der Ukraine zu erreichen“, scheint Putin zu sagen, während er hinter einem Holzschreibtisch sitzt.

Sowohl die Zelensky- als auch die Putin-Videos wurden Zehntausende Male auf verschiedenen Social-Media-Seiten geteilt. Es handelte sich bei beiden auch um vollständige Erfindungen, die durch Verwendung in der Welt materialisiert wurden Deepfake-Technologie Unterstützt durch Deep-Learning-Modelle der künstlichen Intelligenz. Sie gehören zu den bisher deutlichsten Beispielen einer einst theoretischen Realität: Deepfake-Videos, die während des Krieges als Waffe eingesetzt wurden.

Jeder, der auch nur ein wenig Erfahrung im Erkennen digital veränderter Medien hat, könnte wahrscheinlich spüren, dass an den beiden Kapitulationsvideos etwas nicht stimmt. In beiden Clips waren seltsame Gesichtsbewegungen sowie unnatürliche Licht- und Schatteneffekte zu sehen, allesamt verräterische Anzeichen einer KI-Manipulation.

Obwohl die beiden Videos schnell entlarvt wurden, führte ihre schnelle Verbreitung im Internet zu einer Flut von Kommentaren und Nachrichtenartikeln, die vor der realen Gefahr warnten, dass Alter-Videos in Kriegszeiten zur Verwirrung und Spaltung der Öffentlichkeit eingesetzt werden könnten. Neue Forschungsergebnisse deuten darauf hin, dass dieser Anstieg von Deepfakes und die Angst vor ihrer Verbreitung zu einem noch schwieriger zu lösenden Problem beitragen könnten: Menschen ignorieren legitime Medien schnell als Deepfakes. Dies wiederum führt zu einem weiteren Vertrauensverlust in die Realität im Internet.

Dies waren einige der Ergebnisse, die Forscher des University College Cork im Rahmen einer kürzlich in der Fachzeitschrift PLOS ONE veröffentlichten Studie beobachteten. Die Forscher haben fast 5.000 Tweets ausgewählt, die in den ersten sieben Monaten des Jahres 2022 gepostet wurden, um zu analysieren, welche Rolle Deepfakes bei Fehlinformationen und Propaganda während des Krieges spielen könnten. Es ist die erste Studie dieser Art, die die Wirkung von Deepfakes in Kriegszeiten empirisch analysiert.

Obwohl die Studie zahlreiche KI-manipulierte Medienbilder und -videos enthüllt, handelte es sich bei einem schockierenden Teil der Tweets, in denen es angeblich um Deepfakes ging, tatsächlich um Nutzer, die echte, legitime Bilder und Videos fälschlicherweise als digital verändert bezeichneten. Die ersten Ergebnisse ihrer Art liefern neue Beweise, die die Befürchtungen früherer Deepfake-Forscher verstärken, die befürchten, dass die zunehmende Qualität und Verbreitung von Deepfake-Videos im Internet zu einem heimtückischen Szenario führen könnte Bösewichte können einfach behaupten, ein Video sei ein „Deepfake“, um es abzutun.

„Wir stellten fest, dass die Leute es nutzten [the term deepfake] als Schlagwort, um Menschen online anzugreifen“, sagte John Twomey, Forscher und Co-Autor der Studie an der UCC School of Applied Psychology, gegenüber Gizmodo. Deepfakes, wie der Begriff „Bot“ oder „Fake News“ davor, werden als Waffe gegen Medien oder Informationen eingesetzt, mit denen Nutzer einfach nicht einverstanden sind.

“Es [the study] unterstreicht, wie Menschen die Idee von Deepfakes nutzen und in vielerlei Hinsicht extrem skeptisch gegenüber realen Medien werden, insbesondere wenn Deepfakes noch nicht so weit verbreitet sind“, fügte er hinzu. „Mehr Menschen sind sich der Deepfakes bewusst, anstatt dass sie tatsächlich verbreitet sind.

Ein Großteil dieser Diskrepanz ist auf die übermäßige Berichterstattung der Nachrichtenmedien über das Thema zurückzuführen. Ironischerweise kann die wohlmeinende Berichterstattung von Journalisten, die vor den Gefahren von Deepfakes warnen, unbeabsichtigt dazu beitragen, dass das Vertrauen in die Medien allgemein sinkt.

„Wir müssen überlegen, ob der Fokus der Nachrichten auf Deepfakes in keinem Verhältnis zu der Bedrohung steht, der wir derzeit ausgesetzt sind, und ob diese Reaktion zu mehr Misstrauen führt und zu einer epistemischen Krise beiträgt“, schrieben die Forscher.

Was hat die Studie herausgefunden?

Die Studie mit dem treffenden Titel „Untergraben Deepfake-Videos unser epistemisches Vertrauen??“ wollte analysieren, wie Diskussionen über Deepfakes in Kriegszeiten das öffentliche Wissen und die geteilte Wahrheit beeinträchtigen könnten. Mithilfe der Twitter-API hat der Forscher zwischen dem 1. Januar 2022 und dem 1. August desselben Jahres 4869 relevante Tweets über Deepfakes abgerufen. Twomey sagt, dass sich die Forscher entschieden haben, sich auf Twitter zu konzentrieren, weil sich dort tendenziell mehr auf Journalismus und politischen Aktivismus konzentriert als auf anderen Social-Media-Plattformen, auf denen Deepfakes oder Diskussionen darüber zunehmen könnten.

Der Forscher beobachtete in den Wochen vor der russischen Invasion einen Anstieg von Deepfake-bezogenen Inhalten auf Twitter, wobei Nachrichtenseiten und Kommentatoren darüber spekulierten, ob Putin veränderte Medien als Teil einer List nutzen würde, um militärische Aktionen zu rechtfertigen. Die meisten Tweets mit Deepfake-Bezug erschienen zwischen dem 14. und 16. März, also ungefähr zu der Zeit, als die Videos von Selenskyj und Putin Aufmerksamkeit erregten. Obwohl viele der Twitter-Nutzer, die auf den Zelensky-Tweet reagierten, die Qualität des Deepfakes kritisierten, bezeichneten andere ihn ängstlich als potenzielle neue Kriegswaffe.

„Man würde meinen, Deepfakes seien harmlos, wenn man nur alberne Videos von Keanu Reeves mit Deepfakes gesehen hätte“, hieß es in einem der Tweets. „Leider können Deepfakes eine neue und bösartige Art der Propaganda sein“, twitterte ein Benutzer. „Wir haben es jetzt bei Deepfakes der russischen und ukrainischen Führer gesehen.“

Der Zelensky-Deepfake war besonders besorgniserregend, da er von einer ansonsten seriösen Nachrichtenquelle, dem ukrainischen Nachrichtensender 24, stammte Ansprüche Der Deepfake, der in einem ihrer Webcasts auftauchte, war das Ergebnis eines böswilligen Hacks, den sie der russischen Regierung zuschrieben. Russland hat den vermeintlichen Hack nie für sich beansprucht. Zelensky selbst schnell hat ein Folgevideo gepostet Den Deepfake stören, aber erst, nachdem er in den sozialen Medien Aufmerksamkeit erregt hatte. Wenn die Qualität dieses Videos dank Fortschritten verbessert würde sich schnell entwickelnde generative KI-Modelle, es hätte viel mehr Schaden anrichten können.

„Der übliche Indikator für die Wahrhaftigkeit und Vertrauenswürdigkeit von Online-Informationen, die Quelle des Videos, wurde durch den Hack untergraben“, schrieben die Forscher. „Wenn das Video realistischer gewesen wäre und eine größere Glaubwürdigkeit gehabt hätte, hätte es vielleicht eine schädlichere Wirkung gehabt.“

Die „Deepfake-Verteidigung“ nimmt Fahrt auf

Bösewichte und Lügner nutzen bereits sogenannte „Deepfake-Verteidigungsmaßnahmen“, um ihre Angriffe zu verhindern Versuchen Sie, sich aus der Verantwortung zu befreien. Anwälte, die einen Randalierer vertreten, der an den Anschlägen auf das Kapitol am 6. Januar beteiligt war, hatten zuvor versucht, eine Jury davon zu überzeugen Videomaterial Dass ihr Mandant im Prozess deutlich zeigte, wie er mit einer Waffe im Holster über eine Barrikade sprang, war in Wirklichkeit ein Deepfake. Er wurde schließlich verurteilt und zu sieben Jahren Gefängnis verurteilt.

In einem anderen aktuellen Fall vertrat ein Anwalt Elon Musk versuchte mit der Deepfake-Verteidigung Zweifel an einem legitimen und viel beachteten Interview des Milliardärs aus dem Jahr 2016 zu wecken, in dem er behauptete, seine Fahrzeuge könnten „mit größerer Sicherheit als ein Mensch“ autonom fahren. Der Richter in diesem Fall rief die Manöver des Anwalts hervor, was sie als „zutiefst beunruhigende“ Verschleierung bezeichnete, die dem Rechtssystem dauerhaften Schaden zufügen könnte. Gizmodo erzählte kürzlich die Saga von „Deepfake jubeln Mama„, die Opfer eines weltweiten Medienangriffs wurde, nachdem ein Teenager sie fälschlicherweise beschuldigt hatte, ein Video manipuliert zu haben, das angeblich ihr Dampfen zeigte. Das Video war echt.

Unabhängig davon, ob diese Fälle erfolgreich sind oder nicht, wird versucht, die Besorgnis der Öffentlichkeit über die Verbreitung von Deepfakes zu nutzen, um Zweifel an der Realität zu wecken. Dieses Phänomen, das von Wissenschaftlern als „Lügnerdividende“ bezeichnet wird, könnte in Kriegszeiten katastrophale Folgen haben.

Variationen von Kriegsversionen der Dividende des Verstecks ​​spielen sich derzeit in Echtzeit in Gaza ab, wo Schnellfeuermeldungen, die angeblich Bilder und Videos als Deepfakes entlarven, einer Überprüfung nicht standhalten. In einem der bekannteren Beispiele behaupteten Kommentatoren, ein Bild, das angeblich ein verbranntes israelisches Baby darstellte, sei das Produkt KI-generierter Propaganda, nachdem es von jemandem als unecht abgestempelt worden war generativer KI-Bilddetektor. Weitere Analysen des Bildes zeigten jedoch, dass dies der Fall war mit ziemlicher Sicherheit authentisch. Pro-israelische Kommentatoren haben versucht, legitime Medien zu diskreditieren, die von Pro-Palestinina-Aktivisten gepostet wurden, indem sie behaupteten, es handele sich um Deepfakes.

Twomey wollte nicht darüber spekulieren, was seine Erkenntnisse im Russland-Ukraine-Konflikt über den aktuellen Informationsfeuersturm aussagen könnten, sagte aber, dass seine Forschung beweise, dass Deepfakes und deren Leugnung dazu genutzt werden könnten, in Kriegszeiten Verwirrung zu stiften.

„Die Beweise in dieser Studie zeigen, dass Bemühungen, das Bewusstsein für Deepfakes zu schärfen, unser Vertrauen in legitime Videos untergraben können“, tatsächlich Twomey. „Angesichts der Verbreitung von Deepfakes im Internet stellt dies zunehmende Herausforderungen für Nachrichtenmedienunternehmen dar, die vorsichtig sein sollten, wie sie mutmaßliche Deepfakes kennzeichnen, für den Fall, dass sie gegenüber echten Medien Verdacht erregen.“

source-113

Leave a Reply