Ein Deepfake-Aktgenerator enthüllt einen erschreckenden Blick auf seine Opfer


Ein anderes Bild auf der Website zeigte eine Gruppe junger Teenager, die offenbar in der Mittelschule sind: ein Junge, der in einer scheinbaren Schulturnhalle ein Selfie mit zwei Mädchen macht, die lächeln und für das Foto posieren. Die Gesichtszüge des Jungen wurden durch eine Snapchat-Linse verdeckt, die seine Augen so stark vergrößerte, dass sie sein Gesicht verdeckten.

Die Bildunterschriften der offenbar hochgeladenen Bilder deuteten darauf hin, dass sie Bilder von Freunden, Klassenkameraden und Liebespartnern enthielten. „Meine Freundin“, heißt es in einer Bildunterschrift, die eine junge Frau zeigt, die ein Selfie im Spiegel macht.

Viele der Fotos zeigten Influencer, die auf TikTok, Instagram und anderen Social-Media-Plattformen beliebt sind. Andere Fotos schienen Instagram-Screenshots von Menschen zu sein, die Bilder aus ihrem Alltag teilten. Ein Bild zeigte eine junge Frau, die lächelte und ein Dessert mit einer festlichen Kerze servierte.

Auf mehreren Bildern waren offenbar Menschen zu sehen, die der Person, die das Foto gemacht hatte, völlig fremd waren. Ein von hinten aufgenommenes Bild zeigte eine Frau oder ein Mädchen, die nicht für ein Foto posiert, sondern einfach in der Nähe einer scheinbaren Touristenattraktion steht.

Einige der Bilder in den von WIRED überprüften Feeds wurden beschnitten, um die Gesichter von Frauen und Mädchen zu entfernen und nur ihre Brust oder ihren Schritt zu zeigen.

Riesiges Publikum

Während der achttägigen Überwachung der Website stellte WIRED fest, dass fünf neue Bilder von Frauen im Home-Feed und drei auf der Explore-Seite erschienen. Auf der Website aufgeführte Statistiken zeigten, dass die meisten dieser Bilder Hunderte von „Ansichten“ erzielten. Es ist unklar, ob alle an die Website übermittelten Bilder in den Home- oder Explore-Feed gelangen oder wie die Ansichten tabellarisch aufgeführt sind. Jeder Beitrag im Home-Feed hat mindestens ein paar Dutzend Aufrufe.

Fotos von Prominenten und Menschen mit großen Instagram-Followern stehen ganz oben auf der Liste der „Meistgesehenen“ Bilder auf der Website. Die meistgesehenen Personen aller Zeiten auf der Website sind die Schauspielerin Jenna Ortega mit mehr als 66.000 Aufrufen, die Singer-Songwriterin Taylor Swift mit mehr als 27.000 Aufrufen und ein Influencer und DJ aus Malaysia mit mehr als 26.000 Aufrufen.

Swift und Ortega wurden schon früher Opfer von Deepfake-Aktfotos. Die Verbreitung gefälschter Nacktbilder von Swift auf X im Januar löste eine erneute Diskussion über die Auswirkungen von Deepfakes und die Notwendigkeit eines besseren rechtlichen Schutzes für Opfer aus. Diesen Monat berichtete NBC, dass Meta sieben Monate lang Gastgeber war Anzeigen für eine DeepNude-App. Die App prahlte mit ihrer Fähigkeit, Menschen „auszuziehen“, und verwendete dabei ein Bild von Jenna Ortega aus der Zeit, als sie 16 Jahre alt war.

In den USA gibt es kein Bundesgesetz, das die Verbreitung gefälschter, nicht einvernehmlicher Nacktbilder vorsieht. Eine Handvoll Staaten haben ihre eigenen Gesetze erlassen. Aber KI-generierte Nacktbilder von Minderjährigen fallen in die gleiche Kategorie wie anderes Material über sexuellen Kindesmissbrauch (CSAM), sagt Jennifer Newman, Geschäftsführerin der NCMEC-Abteilung für ausgebeutete Kinder.

„Wenn es nicht von einem Bild eines lebenden Opfers, eines echten Kindes, zu unterscheiden ist, dann ist das für uns Material für sexuellen Kindesmissbrauch“, sagt Newman. „Und wir werden es auch so behandeln, wenn wir unsere Meldungen bearbeiten und diese Meldungen an die Strafverfolgungsbehörden weiterleiten.“

source-114

Leave a Reply