Wurde dieses Foto eines toten israelischen Babys von der KI erstellt? Wenn KI-Erkennungsfehler die öffentliche Debatte durcheinander bringen

Am 12. Oktober veröffentlichte der offizielle Bericht des Staates Israel ein Bild eines winzigen, verkohlten Körpers und behauptete, das Bild zeige ein Baby, das von der Hamas während der Anschläge vom 7. Oktober getötet worden sei. In den Stunden nach der Veröffentlichung des Bildes Social-Media-Nutzer begannen zu kommentieren und sagten, dass das Bild laut dem KI-Erkennungstool AI or Not durch künstliche Intelligenz erzeugt worden sei. Mehrere Experten – sowie das Unternehmen hinter AI or Not – sagten jedoch, diese Ergebnisse seien falsch und das Foto sei wahrscheinlich echt.

Wenn Sie nur eine Minute Zeit haben

  • Eine Reihe von Social-Media-Konten, die meisten davon entweder amerikanisch oder ausdrücklich pro-palästinensisch, haben auf X (ehemals Twitter) erklärt, dass das vom Staat Israel geteilte Foto der verbrannten Leiche eines Kindes von KI erstellt wurde, basierend auf dem Ergebnisse eines KI-Erkennungstools namens AI or Not.

  • AI or Not sagte jedoch tatsächlich, dass das Ergebnis falsch positiv sei. Mehrere Spezialisten für Bildanalyse stimmten zu und sagten, dass das Foto nicht KI-generiert sei.

  • Mehrere Personen behaupteten, das Bild des verkohlten Körpers sei anhand eines Welpenfotos erstellt worden. Als wir jedoch mit einem Spezialisten für Bildanalyse sprachen, sagte er, das Foto des Hundes sei tatsächlich das manipulierte Bild.

Der Faktencheck im Detail

Am 12. Oktober sagte der israelische Ministerpräsident Benjamin Netanyahu veröffentlicht [warning: disturbing images] Fotos der verbrannten Leichen von Kindern in Leichensäcken auf seinem X-Account (ehemals Twitter). In der Bildunterschrift sagte er, dass die Fotos „von den Hamas-Monstern ermordete und verbrannte Babys“ während ihres Angriffs am 7. Oktober zeigten. Die Fotos wurden einige Stunden später vom X-Konto des Staates Israel aufgegriffen und erneut veröffentlicht.

Allerdings machten viele amerikanische und pro-palästinensische Social-Media-Nutzer das Land dafür verantwortlich, eines der Bilder mithilfe künstlicher Intelligenz erstellt zu haben.

Eine Reihe von Tweets, darunter einer angesehen Mehr als 22 Millionen Mal verurteilte er die Bilder und behauptete, sie seien von Israel „erstellt“ worden, basierend auf den Ergebnissen von Detektoren für künstliche Intelligenz.KI oder nicht“. Diese Tweets enthielten einen Screenshot der Ergebnisseite, auf dem das Tool angab, dass das Bild „von KI generiert“ worden sei.

Das Ergebnis war ausgeglichen abgeholt durch das X-Konto für Al Jazeera auf Arabisch. Am 14. Oktober veröffentlichten die katarischen Medien ein Video zu diesem Thema, das mehr als 500.000 Aufrufe erzielte.

„Diese Bilder, laut [Israel]spiegeln die „Brutalität der Hamas“ wider… Künstliche Intelligenz hat die Falschheit der israelischen Anschuldigungen gegen Mitglieder von Al-Qassam ans Licht gebracht [the armed branch of Hamas]“, schrieb Al Jazeera.

Dies ist ein Tweet von Al Jazeera auf Arabisch über die Vorwürfe, dass das Bild eines verkohlten Körpers tatsächlich von KI erzeugt wurde. Es enthält den Screenshot der Ergebnisseite des Tools AI or Not. Beobachter

In denselben Nachrichten auch Benutzer beschuldigt Israel hat dieses Bild anhand eines Fotos eines lebenden Welpen in einem Leichensack erstellt – eines, das genauso aussieht wie das Foto auf dem Körper des Kindes.

Dieses Foto eines Welpen, von dem einige Leute sagten, es handele sich um das Originalfoto, das später manipuliert wurde, verbreitete sich weithin, vor allem auf 4chaneine Website, die von rechtsextremen Amerikanern häufig besucht wird, begann am Abend des 12. Oktober.

Mehrere Social-Media-Nutzer behaupteten, dass dieses Bild eines Welpen, das auf dem Kanal 4chan geteilt wurde, der Ursprung des von Israel geteilten Fotos sei.
Mehrere Social-Media-Nutzer behaupteten, dass dieses Bild eines Welpen, das auf dem Kanal 4chan geteilt wurde, der Ursprung des von Israel geteilten Fotos sei. Beobachter

Ein falsch positives Ergebnis für das Tool AI oder nicht

Tatsächlich gibt es einige Hinweise darauf, dass das von der israelischen Regierung veröffentlichte Bild nicht durch künstliche Intelligenz erzeugt wurde.

Das Unternehmen, das „AI or Not“ entwickelt hat, stellte tatsächlich Zweifel an den Ergebnissen seiner eigenen Software twittern Ab dem 14. Oktober gab das Unternehmen an, dass seine Software zu Fehlalarmen fähig sei, was bedeutete, dass es fälschlicherweise zu dem Schluss kommen könne, dass ein echtes Foto von KI erstellt wurde, insbesondere wenn das fragliche Bild von geringer Qualität sei.

„Wir haben mit unserem System bestätigt, dass das Ergebnis nicht schlüssig ist, weil das Foto komprimiert und verändert wurde, um das Namensschild unkenntlich zu machen“, sagte das Unternehmen auf X und bezog sich dabei auf das Schild neben der linken Hand des Körpers. „Wenn man das Foto jetzt durch die Software laufen lässt, zeigt es tatsächlich an, dass es ‚wahrscheinlich menschlich‘ ist.“

Unser Team bestätigte diese Ergebnisse am 16. Oktober.

Dies ist ein Screenshot der Ergebnisseite, als unser Team das Foto am 16. Oktober durch AI or Not laufen ließ. Jetzt heißt es auf der Ergebnisseite, dass das Bild „wahrscheinlich menschlich“ sei.  Unser Team hat den grauen Kreis hinzugefügt, um den Körper zu maskieren.
Dies ist ein Screenshot der Ergebnisseite, als unser Team das Foto am 16. Oktober durch AI or Not laufen ließ. Jetzt heißt es auf der Ergebnisseite, dass das Bild „wahrscheinlich menschlich“ sei. Unser Team hat den grauen Kreis hinzugefügt, um den Körper zu maskieren. Beobachter

Das Team des auf Bildanalyse spezialisierten Ermittlungsportals Bellingcat, geprüft wird die Software bereits im September 2023 herausbringen.

„Die Tatsache, dass AI or Not eine hohe Fehlerquote bei der Identifizierung komprimierter KI-Bilder, insbesondere fotorealistischer Bilder, aufwies, verringert ihren Nutzen für Open-Source-Forscher erheblich“, schlussfolgerte Bellingcat.

„Es gibt keinen Beweis dafür, dass das von der israelischen Regierung geteilte Bild verändert wurde“

Darüber hinaus weist das Foto selbst keine Anzeichen dafür auf, dass es von KI erzeugt wurde, sagt Hany Farid, Spezialist für Bildanalyse und Professor in Berkeley, erklärt zum Medienausgang 404.

Farid wies auf die präzisen Schatten und die strukturellen Konsistenzen im Foto hin.

„Das lässt mich das glauben [the photo] ist nicht einmal teilweise KI-generiert“, sagte er.

Die gleiche Meinung äußerte Denis Teyssou, Leiter des Medialab der AFP und Innovationsmanager eines Projekts, das sich auf die Erkennung von KI-generierten Bildern konzentriert. vera.ai.

„Es gibt keine Anzeichen dafür, dass das von der israelischen Regierung geteilte Bild manipuliert wurde“, sagte er unserem Team am 16. Oktober.

Er fügte hinzu, dass die von vera.ai entwickelte Software zur Erkennung von KI-generierten Bildern nicht erkennen könne, dass das Bild manipuliert worden sei – und spezifizierte gleichzeitig die Grenzen dieser Art von Software.

„Das große Risiko bei KI-Erkennungstools besteht darin, dass sie falsch positive Ergebnisse liefern. Wenn es falsch positive Ergebnisse gibt, können wir dem Tool nicht mehr vertrauen“, sagte er.

Ein „behandeltes“ Bild eines Welpen

Als das Foto der Leiche durch eine vom AFP Medialab erstellte Software zur Erkennung von KI-generierten Bildern lief, hieß es InVID-WeVerifykam es zum gleichen Schluss wie vera.ai – dass das Foto nicht manipuliert worden war.

Allerdings hat das Tool Unstimmigkeiten im Bild des Welpen festgestellt.

„Es ist wahrscheinlich, dass dieses Bild mithilfe generativer Methoden verfälscht wurde“, sagte Tina Nikoukhah, Mathematikforscherin an der Universität Paris-Saclay, während eines Interviews mit unserem Team am 16. Oktober.

Es wurden „erhebliche Spuren im Hintergrund des Bildes entdeckt, die auf dem Welpen nicht zu sehen waren“, sagte sie. Im Bild unten können Sie diese farblich hervorgehobenen Unterschiede sehen – dunkelgrün beim Welpen und hellgrün beim Rest das Bild.

Das Foto des Welpen ist links.  Rechts ist das gleiche Foto mit dem von der Software InVID-WeVerify angewendeten ZERO-Filter zu sehen.  Der Filter "„Wir haben deutliche Spuren im Hintergrund des Bildes entdeckt, die auf dem Welpen nicht zu sehen waren“, sagte Tina Nikoukhah.  Dies wird durch die dunkelgrünen Pixel in der Bildmitte verdeutlicht.
Das Foto des Welpen ist links. Rechts ist das gleiche Foto mit dem von der Software InVID-WeVerify angewendeten ZERO-Filter zu sehen. Der Filter „entdeckte deutliche Spuren im Hintergrund des Bildes, die auf dem Welpen nicht zu sehen waren“, sagte Tina Nikoukhah. Dies wird durch die dunkelgrünen Pixel in der Bildmitte deutlich. Beobachter

„Angesichts der Art dieser Spuren ist es wahrscheinlich, dass die Fälschung mithilfe der KI-Generierung vorgenommen wurde“, fügte sie hinzu und bezog sich dabei auf Software wie Midjourney oder Stable Diffusion.

Diese Ergebnisse stimmen mit den Behauptungen eines X-Benutzers überein, der sagte, er habe das Welpenbild erstellt.

In einem twittern Am 12. Oktober veröffentlicht, wenige Stunden bevor das Bild auf 4chan geteilt wurde, sagte er, dass er „fünf Sekunden“ gebraucht habe, um dieses Bild aus dem von Israel geteilten Bild zu erstellen.

„Es ist nicht mehr schwer, ein überzeugendes gefälschtes Foto zu machen“, schrieb er in seinem Tweet, der inzwischen gelöscht wurde. In einem anderen Tweet sagte derselbe Benutzer, dass er es getan habe gebraucht der AI-Bildgenerator Stable Diffusion. In anderen Tweets bezog er sich mehrfach auf sein KI-generiertes Bild.

Fotos von verbrannten Kindern wurden ohne Kontext von Israel geteilt

Auch wenn die Bilder real sind, hat Israel sie ohne jeglichen Kontext geteilt.

Am 10. Oktober wurde dem israelischen Sender i24 News und der israelischen Regierung vorgeworfen, ohne Beweise bekannt gegeben zu haben, dass in Kfar Azar 40 Babys von der Hamas enthauptet worden seien.

Am 11. Oktober sagte auch US-Präsident Joe Biden, dass israelische Kinder „enthauptet“ worden seien. Allerdings teilte das Weiße Haus am selben Abend mit, dass der amerikanische Präsident diese Informationen von den israelischen Diensten erhalten habe und über keine zusätzlichen Beweise verfüge.

Am nächsten Tag die israelische Regierung geteilt das Bild der verkohlten Überreste von Kindern und sagte: „Wer diese Ereignisse leugnet, unterstützt die barbarischen Tiere, die dafür verantwortlich sind.“

Sie gaben jedoch keinen Kontext für die Bilder oder die Umstände des Todes dieser Kinder an.


source site-27

Leave a Reply