Facebook und Instagram Rache-Tool zur Eindämmung von Pornos

Meta hat ein neues Tool auf den Markt gebracht, mit dem Facebook und Instagram-Nutzer stoppen die Verbreitung intimer Bilder, die ohne ihre Zustimmung auf den Plattformen geteilt werden. Facebook und seine Schwester-Social-Media-Plattform kennen das Problem, das inzwischen unter dem Oberbegriff „Rachepornos“ in Verruf geraten ist. Das Unternehmen verfügt bereits seit 2019 über ein System, das maschinelles Lernen und künstliche Intelligenz nutzt, um Nacktbilder und -videos zu erkennen, die möglicherweise nicht einvernehmlich auf Instagram und Facebook geteilt wurden.

Aber bisher hat sich das System auf menschliches Eingreifen verlassen – ein “speziell geschultes Mitglied unseres Community Operations Teams” — um festzustellen, ob ein Medium gegen die Community-Richtlinien verstößt und entfernt werden muss, bevor viel Schaden entsteht. Die beiden Plattformen haben jedoch gegen eine Verletzung der sexuellen Privatsphäre und Online-Belästigung gekämpft, und dies kann sowohl auf interne als auch auf externe Fehler zurückzuführen sein. Durchgesickerte interne Untersuchungen haben kürzlich ergeben, dass Facebook verstörende Inhalte mit grafischer Gewalt oder sexuellen Bildern an Benutzer verteilt, die nicht in der Lage sind, in sozialen Medien zu navigieren.

Ähnlich: Instagram-Benutzer können jetzt auswählen, wie viele sensible Inhalte sie sehen

Das Unternehmen geht das Thema noch einmal an und hat gestartet eine kostenlose Werkzeug für Benutzer, die Opfer von Missbrauch von nicht einvernehmlichen Intimbildern (NCII) sind. Das Tool, das in Zusammenarbeit mit der UK Revenge Porn Helpline entwickelt wurde, wird von über 50 NGOs auf der ganzen Welt unterstützt und wird Instagram- und Facebook-Nutzern weltweit zur Verfügung stehen. Das Unternehmen, das jetzt unter dem Namen Meta firmiert, sagt, dass sein Sicherheitstool nicht nur für Benutzer gedacht ist, die Opfer von „Rachepornos“ sind, sondern auch für diejenigen hilfreich sein kann, die befürchten, dass ihnen in naher Zukunft etwas passieren könnte. Benutzer werden aufgefordert, ein codiertes Warnsystem zu erstellen, das die Veröffentlichung von nicht einvernehmlichen intimen Bildern und Videos stoppt und die Risiken proaktiv senkt.

Das gesamte Verfahren kann jedoch dazu führen, dass sich die Benutzer unwohl fühlen, da das System sie auffordert, intime Fotos und Videos zum Zwecke der Zuordnung einzureichen. In Bezug auf den Datenschutzaspekt sagt Meta, dass die Verwendung von Hashing es ermöglicht, die identifizierbaren Daten in einem Bild zu katalogisieren, während die Medien selbst für die Person, die sie übermittelt hat, privat bleiben. Wenn Benutzer ein Bild oder Video teilen, wird es mithilfe eines Algorithmus, der als digitaler Fingerabdruck für den Abgleich dient, sofort in einen einzigartigen digitalen Code umgewandelt. Zum Beispiel hat ein Duplikat eines Bildes denselben digitalen Fingerabdruck wie das Original, und so kommt das gesamte Identifizierungs- und Entfernungssystem in Gang. Das eigentliche Bild verlässt niemals das Gerät des Benutzers und StopNCII sowie teilnehmende Unternehmen erhalten diese gehashten Daten nur aus Sicherheitsgründen.

Apple verlässt sich auch auf den Hash-Generierungsprozess zur Erkennung von Material zum sexuellen Missbrauch von Kindern (CSAM) als Teil seines iCloud-Fotoabgleichssystems. Meta verwendet Open-Source-Industriestandardalgorithmen für das Hashing von Fotos und Videos, die für den Abgleich einfach plattformübergreifend implementiert werden können. Aber das System kann auch leicht getäuscht werden, wenn kleine Änderungen an einem NCII-Bild oder -Video vorgenommen werden. „Wenn ein gehashtes Bild durch Zuschneiden bearbeitet, Filter hinzugefügt oder ein Video abgeschnitten wird, erkennt der ursprüngliche Hash das Bild möglicherweise nicht. Das neue Image muss separat gehasht werden.“ sagt der FAQ-Bereich des Anti-Rache-Porno-Tools.

Nächster: Instagram zielte auf Teenager ab, und jetzt zielen Staaten auf Instagram ab

Quellen: Meta, StopNCII.org

source site-73

Leave a Reply