Deepfake-Pornos könnten ein wachsendes Problem im KI-Rennen sein


NEW YORK (AP) – Bildgebung mit künstlicher Intelligenz kann verwendet werden, um Kunst zu schaffenin virtuellen Umkleidekabinen Kleidung anprobieren oder Werbekampagnen mitgestalten.

Doch Experten fürchten die dunklere Seite der leicht zugänglichen Tools könnte etwas verschlimmern, was vor allem Frauen schadet: nicht einvernehmliche Deepfake-Pornografie.

Deepfakes sind Videos und Bilder, die digital erstellt oder mit künstlicher Intelligenz oder maschinellem Lernen verändert wurden. Pornos, die mit der Technologie erstellt wurden, verbreiteten sich erstmals vor einigen Jahren über das Internet, als ein Reddit-Benutzer Clips teilte, die die Gesichter weiblicher Prominenter auf den Schultern von Pornodarstellern platzierten.

Seitdem haben Deepfake-Ersteller ähnliche Videos und Bilder verbreitet, die sich an Online-Influencer, Journalisten und andere mit einem öffentlichen Profil richten. Tausende von Videos existieren auf einer Vielzahl von Websites. Und einige bieten Benutzern die Möglichkeit, ihre eigenen Bilder zu erstellen – im Wesentlichen erlaubt es jedem, wen er will, ohne seine Zustimmung in sexuelle Fantasien zu verwandeln oder die Technologie zu nutzen, um ehemaligen Partnern Schaden zuzufügen.

Experten sagen, dass das Problem größer wurde, als es einfacher wurde, raffinierte und visuell überzeugende Deepfakes zu erstellen. Und sie sagen, dass es mit der Entwicklung generativer KI-Tools noch schlimmer werden könnte, die auf Milliarden von Bildern aus dem Internet trainiert werden und anhand vorhandener Daten neuartige Inhalte ausspucken.

„Die Realität ist, dass sich die Technologie weiter ausbreiten, weiterentwickeln und so einfach wie das Drücken eines Knopfes werden wird“, sagte Adam Dodge, der Gründer von EndTAB, einer Gruppe, die Schulungen zu technologiegestütztem Missbrauch anbietet . „Und solange das passiert, werden die Menschen diese Technologie zweifellos weiter missbrauchen, um anderen zu schaden, vor allem durch sexuelle Online-Gewalt, Deepfake-Pornografie und gefälschte Nacktbilder.“

Noelle Martin aus Perth, Australien, hat diese Realität erlebt. Die 28-Jährige fand vor 10 Jahren Deepfake-Pornos von sich selbst, als sie eines Tages aus Neugier mit Google nach einem Bild von sich selbst suchte. Bis heute, sagt Martin, weiß sie nicht, wer die gefälschten Bilder oder Videos von ihr beim Geschlechtsverkehr erstellt hat, die sie später finden würde. Sie vermutet, dass jemand wahrscheinlich ein Foto gemacht hat, das auf ihrer Social-Media-Seite oder anderswo gepostet wurde, und es zu einem Porno manipuliert hat.

Entsetzt kontaktierte Martin mehrere Jahre lang verschiedene Websites, um die Bilder zu entfernen. Einige haben nicht reagiert. Andere nahmen es herunter, aber sie fand es bald wieder.

„Du kannst nicht gewinnen“, sagte Martin. „Das ist etwas, das immer da draußen sein wird. Es ist, als hätte es dich für immer ruiniert.“

Je mehr sie sich zu Wort meldete, sagte sie, desto mehr eskalierte das Problem. Einige Leute sagten ihr sogar, dass die Art und Weise, wie sie sich kleidete und Bilder in den sozialen Medien veröffentlichte, zu der Belästigung beitrug – im Wesentlichen machten sie sie für die Bilder und nicht die Schöpfer verantwortlich.

Schließlich wandte Martin ihre Aufmerksamkeit der Gesetzgebung zu und plädierte für ein nationales Gesetz in Australien, das Unternehmen mit einer Geldstrafe von 555.000 australischen Dollar (370.706 US-Dollar) belegen würde, wenn sie die Entfernungsbescheide für solche Inhalte von Online-Sicherheitsbehörden nicht einhalten.

Aber das Internet zu regieren ist nahezu unmöglich, wenn Länder ihre eigenen Gesetze für Inhalte haben, die manchmal auf der anderen Seite der Welt erstellt werden. Martin, derzeit Anwältin und Rechtswissenschaftlerin an der University of Western Australia, glaubt, dass das Problem durch eine Art globale Lösung kontrolliert werden muss.

In der Zwischenzeit sagen einige KI-Modelle, dass sie den Zugang zu expliziten Bildern bereits einschränken.

OpenAI sagt, es habe explizite Inhalte aus Daten entfernt, die zum Trainieren des Bilderzeugungstools DALL-E verwendet wurden, was die Fähigkeit der Benutzer einschränkt, diese Art von Bildern zu erstellen. Das Unternehmen filtert auch Anfragen und sagt, dass es Benutzer daran hindert, KI-Bilder von Prominenten und prominenten Politikern zu erstellen. Midjourney, ein weiteres Modell, blockiert die Verwendung bestimmter Schlüsselwörter und ermutigt Benutzer, problematische Bilder an Moderatoren zu melden.

Unterdessen hat das Startup Stability AI im November ein Update herausgebracht, das die Möglichkeit entfernt, explizite Bilder mit seinem Bildgenerator Stable Diffusion zu erstellen. Diese Änderungen erfolgten nach Berichten, dass einige Benutzer mit der Technologie von Prominenten inspirierte Nacktbilder erstellten.

Motez Bishara, Sprecher der Stabilitäts-KI, sagte, der Filter verwende eine Kombination aus Schlüsselwörtern und anderen Techniken wie Bilderkennung, um Nacktheit zu erkennen, und gebe ein verschwommenes Bild zurück. Aber es ist für Benutzer möglich, die Software zu manipulieren und zu generieren, was sie wollen, da das Unternehmen seinen Code für die Öffentlichkeit freigibt. Laut Bishara erstreckt sich die Lizenz von Stability AI „auf Anwendungen von Drittanbietern, die auf Stable Diffusion basieren“ und verbietet strengstens „jeden Missbrauch für illegale oder unmoralische Zwecke“.

Auch einige Social-Media-Unternehmen haben ihre Regeln verschärft, um ihre Plattformen besser vor schädlichen Materialien zu schützen.

TikTok sagte letzten Monat, dass alle Deepfakes oder manipulierten Inhalte, die realistische Szenen zeigen, gekennzeichnet werden müssen, um anzuzeigen, dass sie gefälscht oder in irgendeiner Weise verändert sind, und dass Deepfakes von Privatpersonen und jungen Menschen nicht mehr erlaubt sind. Zuvor hatte das Unternehmen sexuell explizite Inhalte und Deepfakes gesperrt, die Zuschauer in die Irre führen über Ereignisse in der realen Welt und Schaden verursachen.

Auch die Gaming-Plattform Twitch hat kürzlich ihre Richtlinien zu expliziten Deepfake-Bildern aktualisiert, nachdem entdeckt wurde, dass ein beliebter Streamer namens Atrioc während eines Livestreams Ende Januar eine Deepfake-Porno-Website in seinem Browser geöffnet hat. Die Seite zeigte gefälschte Bilder von anderen Twitch-Streamern.

Twitch hat bereits explizite Deepfakes verboten, aber jetzt zeigt ein Blick auf solche Inhalte – auch wenn es beabsichtigt ist, Empörung auszudrücken – „wird entfernt und führt zu einer Durchsetzung“, schrieb das Unternehmen in einem Blogbeitrag. Und das absichtliche Fördern, Erstellen oder Teilen des Materials ist ein Grund für ein sofortiges Verbot.

Andere Unternehmen haben ebenfalls versucht, Deepfakes von ihren Plattformen zu verbannen, aber es erfordert Sorgfalt, sie fernzuhalten.

Apple und Google sagten kürzlich, sie hätten eine App aus ihren App Stores entfernt, die sexuell anzügliche Deepfake-Videos von Schauspielerinnen lief, um das Produkt zu vermarkten. Die Erforschung von Deepfake-Pornos ist nicht weit verbreitet, aber ein 2019 von der KI-Firma DeepTrace Labs veröffentlichter Bericht ergab, dass sie fast ausschließlich gegen Frauen als Waffe eingesetzt wurden und die am stärksten betroffenen Personen westliche Schauspielerinnen waren, gefolgt von südkoreanischen K-Pop-Sängern.

Dieselbe App, die von Google und Apple entfernt wurde, hatte Anzeigen auf Metas Plattform geschaltet, zu der Facebook, Instagram und Messenger gehören. Meta-Sprecher Dani Lever sagte in einer Erklärung, dass die Unternehmensrichtlinie sowohl KI-generierte als auch Nicht-KI-Inhalte für Erwachsene einschränkt und die Seite der App von Werbung auf ihren Plattformen ausgeschlossen hat.

Im Februar begannen Meta sowie Websites für Erwachsene wie OnlyFans und Pornhub, sich an einem Online-Tool namens Take It Down zu beteiligen, das es Teenagern ermöglicht, explizite Bilder und Videos von sich selbst aus dem Internet zu melden. Die Meldeseite arbeitet für normale Bilder und KI-generierte Inhalte – was für Kinderschutzgruppen zu einem wachsenden Problem geworden ist.

„Wenn die Leute unsere Geschäftsleitung fragen, was sind die Felsbrocken, die den Hügel hinunterkommen, um die wir uns Sorgen machen? Die erste ist die Ende-zu-Ende-Verschlüsselung und was das für den Kinderschutz bedeutet. Und an zweiter Stelle steht die KI und insbesondere Deepfakes“, sagte Gavin Portnoy, ein Sprecher des National Center for Missing and Exploited Children, das das Take It Down-Tool betreibt.

„Wir konnten noch keine direkte Antwort darauf formulieren“, sagte Portnoy.

source-124

Leave a Reply