Fälle von Promi-Deepfake-Pornos werden vom Meta Oversight Board untersucht


Da KI-Tools immer ausgefeilter und zugänglicher werden, entwickelt sich auch eine ihrer schlimmsten Anwendungen: nicht einvernehmliche Deepfake-Pornografie. Während viele dieser Inhalte auf speziellen Websites gehostet werden, finden sie immer mehr ihren Weg auf soziale Plattformen. Heute gab das Meta Oversight Board bekannt, dass es Fälle annimmt, die das Unternehmen dazu zwingen könnten, über den Umgang mit Deepfake-Pornos nachzudenken.

Das Gremium, ein unabhängiges Gremium, das sowohl verbindliche Entscheidungen als auch Empfehlungen an Meta aussprechen kann, wird sich auf zwei Deepfake-Porno-Fälle konzentrieren, die sich beide auf Prominente beziehen, deren Bilder verändert wurden, um explizite Inhalte zu erstellen. In einem Fall über eine namentlich nicht genannte amerikanische Berühmtheit wurden Deepfake-Pornos, die die Berühmtheit darstellten, von Facebook entfernt, nachdem sie bereits an anderer Stelle auf der Plattform gemeldet worden waren. Der Beitrag wurde auch zur Media Matching Service Bank von Meta hinzugefügt, einem automatisierten System, das Bilder findet und entfernt, die bereits als Verstoß gegen die Richtlinien von Meta gekennzeichnet wurden, um sie von der Plattform fernzuhalten.

Im anderen Fall blieb ein Deepfake-Bild einer namentlich nicht genannten indischen Berühmtheit auf Instagram sichtbar, selbst nachdem Nutzer es wegen Verstoßes gegen Metas Richtlinien zu Pornografie gemeldet hatten. Das Deepfake der indischen Berühmtheit wurde entfernt, als die Behörde den Fall aufnahm, heißt es die Ankündigung.

In beiden Fällen wurden die Bilder wegen Verstoßes gegen die Meta-Richtlinien entfernt Mobbing und Belästigung, und fiel nicht unter Metas Richtlinien zu Pornos. Meta jedoch, verbietet „Inhalte, die sexuelle Gewalt, sexuelle Übergriffe oder sexuelle Ausbeutung darstellen, androhen oder fördern“ und keine pornografischen Inhalte zulassen sexuell explizite Werbung auf seinen Plattformen. In einem Blogeintrag Meta wurde gleichzeitig mit der Bekanntgabe der Fälle veröffentlicht und sagte, es habe die Beiträge wegen Verstoßes gegen den Abschnitt „abfällige, sexualisierte Photoshops oder Zeichnungen“ seiner Mobbing- und Belästigungsrichtlinie entfernt und auch „festgestellt, dass es einen Verstoß gegeben hat“. [Meta’s] Richtlinie zu Nacktheit und sexuellen Aktivitäten von Erwachsenen.“

Laut Julie Owono, einem Mitglied des Oversight Board, hofft der Vorstand, diese Fälle nutzen zu können, um die Richtlinien und Systeme von Meta zur Erkennung und Entfernung nicht einvernehmlicher Deepfake-Pornografie zu untersuchen. „Ich kann schon jetzt vorläufig sagen, dass das Hauptproblem wahrscheinlich die Erkennung ist“, sagt sie. „Die Erkennung ist nicht so perfekt oder zumindest nicht so effizient, wie wir es uns wünschen.“

Meta hat auch lange wurde kritisiert für seinen Ansatz zur Moderation von Inhalten außerhalb der USA und Westeuropas. Für diesen Fall äußerte das Gremium bereits Bedenken, dass die amerikanische Berühmtheit und die indische Berühmtheit als Reaktion auf das Erscheinen ihrer Deepfakes auf der Plattform unterschiedlich behandelt würden.

„Wir wissen, dass Meta Inhalte in einigen Märkten und Sprachen schneller und effektiver moderieren kann als in anderen. Indem wir einen Fall aus den USA und einen aus Indien betrachten, wollen wir sehen, ob Meta alle Frauen weltweit auf faire Weise schützt“, sagt Helle Thorning-Schmidt, Co-Vorsitzende des Aufsichtsgremiums. „Es ist von entscheidender Bedeutung, dass diese Angelegenheit angegangen wird, und der Vorstand freut sich darauf, zu untersuchen, ob die Richtlinien und Durchsetzungspraktiken von Meta dieses Problem wirksam angehen.“

source-114

Leave a Reply