Trump festgenommen? Putin im Gefängnis? Gefälschte KI-Bilder verbreiten sich im Internet


NEW YORK (AP) – Der frühere Präsident Donald Trump wird von in Kampfausrüstung gekleideten New Yorker Polizisten von Banden angegriffen. Der russische Präsident Wladimir Putin in Gefängnisgrau hinter den Gitterstäben einer schwach beleuchteten Betonzelle.

Die hochdetaillierten, sensationellen Bilder haben Twitter und andere Plattformen in den letzten Tagen überschwemmt, inmitten von Nachrichten, dass Trump möglicherweise strafrechtlich verfolgt wird und der Internationale Strafgerichtshof hat einen Haftbefehl erlassen für Putin.

Aber keines der visuellen Elemente ist im entferntesten real. Die Bilder – und Dutzende von Variationen, die die sozialen Medien verunreinigen – wurden mit immer ausgefeilteren und allgemein zugänglichen Bildgeneratoren produziert, die von künstlicher Intelligenz angetrieben werden.

Experten für Fehlinformationen warnen, dass die Bilder Vorboten einer neuen Realität sind: Wellen gefälschter Fotos und Videos, die nach großen Nachrichtenereignissen die sozialen Medien überschwemmen und Fakten und Fiktionen in entscheidenden Zeiten für die Gesellschaft weiter verwirren.

„Es fügt bei Krisenereignissen Lärm hinzu. Es erhöht auch den Grad des Zynismus“, sagte Jevin West, Professor an der University of Washington in Seattle, der sich auf die Verbreitung von Fehlinformationen konzentriert. „Sie beginnen, das Vertrauen in das System und die Informationen, die Sie erhalten, zu verlieren.“

Während die Möglichkeit, Fotos zu manipulieren und gefälschte Bilder zu erstellen, nicht neu ist, sind KI-Bildgenerator-Tools von Midjourney, DALL-E und anderen einfacher zu verwenden. Sie können schnell realistische Bilder – komplett mit detaillierten Hintergründen – in großem Umfang mit kaum mehr als einer einfachen Texteingabe von Benutzern erstellen.

Einige der letzten Bilder wurden von gefahren die Veröffentlichung dieses Monats einer neuen Version des Text-to-Image-Synthesemodells von Midjourney, das nun unter anderem überzeugende Bilder im Stil von Nachrichtenagenturfotos produzieren kann.

In einem weit verbreiteten Twitter-Threadbenutzte Eliot Higgins, Gründer von Bellingcat, einem Kollektiv für investigativen Journalismus mit Sitz in den Niederlanden, die neueste Version des Tools, um es zu beschwören Dutzende dramatischer Bilder von Trumps fiktiver Verhaftung.

Die Bilder, die Zehntausende Male geteilt und geliked wurden, zeigten eine Gruppe uniformierter Beamter, die den republikanischen Milliardär packten und ihn gewaltsam auf den Bürgersteig zogen.

Higgins, der auch hinter einem stand Reihe von Bildern von Putin, der verhaftet, vor Gericht gestellt und dann inhaftiert wurde, sagt, er habe die Bilder ohne böse Absicht gepostet. In seinem Twitter-Thread erklärte er sogar deutlich, dass die Bilder von KI generiert wurden.

Dennoch reichten die Bilder laut Higgins aus, um ihn vom Midjourney-Server auszuschließen. Das in San Francisco ansässige unabhängige Forschungslabor antwortete nicht auf E-Mails mit der Bitte um Stellungnahme.

„Das Trump-Verhaftungsbild zeigte wirklich nur beiläufig, wie gut und schlecht Midjourney echte Szenen wiedergeben konnte“, schrieb Higgins in einer E-Mail. „Die Bilder fingen an, eine Art Erzählung zu bilden, als ich Eingabeaufforderungen in Midjourney einfügte, also fügte ich sie in eine Erzählung ein und beschloss, die Geschichte zu Ende zu führen.“

Er wies darauf hin, dass die Bilder alles andere als perfekt seien: Auf einigen ist Trump seltsamerweise mit einem Polizeigürtel zu sehen. Bei anderen sind Gesichter und Hände deutlich verzerrt.

Aber es reicht nicht aus, dass Nutzer wie Higgins in ihren Posts klar sagen, dass die Bilder KI-generiert sind und ausschließlich der Unterhaltung dienen, sagt Shirin Anlen, Medientechnologin bei Witness, einer in New York ansässigen Menschenrechtsorganisation, die sich auf visuelle Beweise konzentriert.

Zu oft werden die visuellen Elemente schnell von anderen ohne diesen entscheidenden Kontext erneut geteilt, sagte sie. Tatsächlich erhielt ein Instagram-Post, der einige von Higgins‘ Bildern von Trump so teilte, als ob sie echt wären, mehr als 79.000 Likes.

„Sie sehen nur ein Bild, und wenn Sie etwas einmal gesehen haben, können Sie es nicht wieder rückgängig machen“, sagte Anlen.

In einem anderen aktuellen Beispiel teilten Social-Media-Nutzer ein synthetisches Bild, das Putin angeblich kniend und die Hand des chinesischen Führers Xi Jinping küsst. Das Bild, das kursierte, als der russische Präsident Xi diese Woche im Kreml begrüßtewurde schnell zu einem derben Meme.

Es ist nicht klar, wer das Bild erstellt oder welches Werkzeug sie verwendet haben, aber einige Hinweise verrieten die Fälschung. So waren beispielsweise die Köpfe und Schuhe der beiden Anführer leicht verzerrt, und die Einrichtung des Raums passte nicht zum Raum wo das eigentliche Treffen stattfand.

Da synthetische Bilder immer schwieriger von der Realität zu unterscheiden sind, ist der beste Weg, visuelle Fehlinformationen zu bekämpfen, ein besseres öffentliches Bewusstsein und Aufklärung, sagen Experten.

„Es wird so einfach und so billig, diese Bilder zu machen, dass wir alles tun sollten, um der Öffentlichkeit bewusst zu machen, wie gut diese Technologie geworden ist“, sagte West.

Higgins schlägt vor, dass sich Social-Media-Unternehmen auf die Entwicklung von Technologien konzentrieren könnten, um KI-generierte Bilder zu erkennen und diese in ihre Plattformen zu integrieren.

Twitter hat eine Richtlinie, die „synthetische, manipulierte oder kontextlose Medien“ mit dem Potenzial zu Täuschung oder Schaden verbietet. An einige Tweets wurden Anmerkungen von Community Notes, dem Crowdsourcing-Faktenprüfungsprojekt von Twitter, angehängt, um den Kontext aufzunehmen, dass die Trump-Bilder von der KI generiert wurden.

Als das Unternehmen am Donnerstag für einen Kommentar erreicht wurde, schickte es nur eine automatisierte Antwort per E-Mail zurück.

Meta, die Muttergesellschaft von Facebook und Instagram, lehnte eine Stellungnahme ab. Einige der fabrizierten Trump-Bilder wurden durch das Faktenprüfprogramm eines Drittanbieters, an dem AP teilnimmt, entweder als „falsch“ oder „fehlender Kontext“ gekennzeichnet.

Arthur Holland Michel, ein Mitarbeiter des Carnegie Council for Ethics in International Affairs in New York, der sich auf neue Technologien konzentriert, sagte, er mache sich Sorgen, dass die Welt nicht bereit für die bevorstehende Sintflut sei.

Er fragt sich, wie Deepfakes, an denen normale Menschen beteiligt sind – beispielsweise schädliche gefälschte Bilder eines Ex-Partners oder eines Kollegen – reguliert werden.

„Aus politischer Sicht bin ich mir nicht sicher, ob wir bereit sind, mit diesem Ausmaß an Desinformation auf allen Ebenen der Gesellschaft umzugehen“, schrieb Michel in einer E-Mail. „Mein Gefühl ist, dass es eines noch nie dagewesenen technischen Durchbruchs bedarf, um dem endgültig ein Ende zu bereiten.“

___

Der assoziierte Pressereporter David Klepper in Washington trug zu dieser Geschichte bei.



source-123

Leave a Reply