Ich war entsetzt, als ich feststellte, dass ich zu einem „Deep Fake“-Pornovideo bearbeitet worden war – mir wurde mit ekelhaften Vergewaltigungsangriffen gedroht

EINE FRAU war mit ekelhaften Vergewaltigungsattacken bedroht nachdem ihr Gesicht zu einem „Deep Fake“-Pornovideo bearbeitet worden war.

Kate Isaacs, 30, scrollte durch Twitter, als sie von Panik erfasst wurde, als ihr klar wurde, dass ihr Gesicht digital in ein explizites Video umgewandelt worden war.

1

Kate Issacs stellte fest, dass ihr Gesicht digital zu einem expliziten Video bearbeitet worden warBildnachweis: Getty

Deepfake-Videos werden mit künstlicher Intelligenz erstellt, um ein Gesicht so zu manipulieren, dass es wie eine andere Person aussieht oder den Anschein erweckt, dass sie etwas sagt, was sie nicht sagt.

Videoaufnahmen von Kate stammten aus einem Fernsehinterview, das sie gegeben hatte, als sie auf nicht einvernehmliche Pornos aufmerksam machte.

Es wurde auf die Pornodarstellerin synchronisiert und schien sie beim Sex zu zeigen.

Sie sagte BBC: „Mein Herz sank. Ich konnte nicht klar denken. Ich erinnere mich, dass ich einfach das Gefühl hatte, dieses Video würde überall hingehen – es war entsetzlich.

Kranke Seiten, auf denen MILLIONEN von ahnungslosen Frauen „deepfaked in Pornos“ entlarvt wurden
Grimmige Welt der Deepfakes – von gefälschten Promi-Sexvideos bis hin zu gefälschten Kriminalvideos für 15 £

„Es war ein Verstoß – meine Identität wurde auf eine Weise verwendet, der ich nicht zugestimmt habe.“

Sie hatte 2019 die Initiative #NotYourPorn in der Hoffnung gegründet, Vorschriften für Inhalte einzuführen, die auf Unterhaltungswebsites für Erwachsene gepostet wurden, nachdem die iCloud ihrer Freundin gehackt und persönliche Inhalte online gestellt wurden.

Ihre Arbeit trug dazu bei, dass Pornhub gezwungen war, alle Videos zu entfernen, die von nicht verifizierten Benutzern auf die Website hochgeladen wurden.

Plötzlich fand sie sich als Opfer wieder, weil sie glaubte, dass das Video wahrscheinlich von jemandem erstellt wurde, der sich ihrer Ansicht widersetzt hatte oder von den Änderungen betroffen war, die sie mit einführte.

Sie bekam Angst, dass Leute, die sie kannten, glauben könnten, dass sie es wirklich war.

Kate sagte: „Du fängst an, an deine Familie zu denken. Wie würden sie sich fühlen, wenn sie diesen Inhalt sehen würden?“

Die Intensität der Situation nahm zu, als Internetnutzer anfingen, abscheuliche Kommentare darunter zu schreiben.

Einige sagten, sie wollten ihr nach Hause folgen, ihre Vergewaltigung filmen und das dann auch online stellen.

Ihre Situation eskalierte weiter, als Leute ihre Arbeits- und Privatadresse online stellten.

Sie sagte: „Ich wurde völlig paranoid – ‚Wer kennt meine Adresse? Ist es jemand, den ich kenne, der das getan hat?’

„Ich dachte: ‚Ich bin hier wirklich in Schwierigkeiten, das sind nicht nur ein paar Leute im Internet, die den Mund aufmachen, es besteht tatsächlich eine echte Gefahr.’“

Deepfakes – was sind sie und wie funktionieren sie?

Hier ist, was Sie wissen müssen …

  • Deepfakes ist eine herunterladbare App, die künstliche Intelligenz und maschinelles Lernen nutzt, um mit kaum Aufwand Pornos mit vertauschten Gesichtern zu produzieren
  • Um die Videos zu erstellen, suchen Benutzer zunächst einen XXX-Clip mit einem Pornostar auf, der wie eine Schauspielerin aussieht
  • Dann füttern sie eine App mit Hunderten – und manchmal Tausenden – von Fotos des Gesichts des Opfers
  • Ein maschineller Lernalgorithmus tauscht die Gesichter Frame für Frame aus, bis er ein realistisches, aber gefälschtes Sextape ausspuckt
  • Um anderen Benutzern bei der Erstellung dieser Videos zu helfen, laden Perverse „Facesets“ hoch, riesige Computerordner, die mit dem Gesicht eines Prominenten gefüllt sind und einfach über die „Deepfakes“-App gefüttert werden können
  • Simon Miles von Edwin Coe, Spezialist für geistiges Eigentum, sagte gegenüber The Sun, dass die gefälschten Sexvideos als „ungesetzlicher Eingriff“ in die Privatsphäre eines Promis angesehen werden könnten
  • Er fügte hinzu, dass Prominente verlangen könnten, dass der Inhalt entfernt wird, warnte jedoch: „Die Schwierigkeit besteht darin, dass bereits Schaden angerichtet wurde

Gefährliche neue Deepfake-Apps fügen die Gesichter von Menschen in Pornoinhalte ein und fordern dann Lösegeld.

Millionen von Frauen waren laut besorgten Experten das Ziel von Deepfake-Rachepornos.

Die Deepfake-KI-Technologie gibt es erst seit etwa fünf Jahren, und doch gibt es bereits zahlreiche Plattformen, die die Technologie einfach zu bedienen und für fast jeden zugänglich machen.

Experten befürchten, dass es mittlerweile so weit fortgeschritten ist, dass es schwierig ist, zwischen einem gefälschten und einem echten Video zu unterscheiden.

Ein britisches Online-Sicherheitsgesetz soll Ofcom die Befugnis geben, gegen Websites auf der ganzen Welt vorzugehen, die Briten Schaden zufügen oder zulassen.

Kulturministerin Michelle Donelan hat versichert, dass sie und ihr Team mit Hochdruck daran arbeiten, dass die Rechnung geliefert wird, nachdem endlose Überarbeitungen zu Verzögerungen geführt haben.

Kostenloses Bargeld, das Sie dieses Weihnachten auf Universal Credit erhalten können, müssen Sie NICHT zurückzahlen
Meine 20-minütige Fahrt dauert aufgrund von Straßenarbeiten für einen Radweg, den niemand benutzen wird, 2 STUNDEN

Es ist zu hoffen, dass das Gesetz Kinder vor schädlichen Inhalten wie Pornografie schützt und die Exposition gegenüber illegalen Inhalten begrenzt.

Social-Media-Plattformen, Suchmaschinen und andere Apps und Websites, die es Menschen ermöglichen, Inhalte zu teilen, werden benötigt, um Kinder zu schützen und gegen illegale Aktivitäten vorzugehen.


source site-17

Leave a Reply