Metas Aufsichtsgremium eskaliert Holocaust-Leugnungsbericht


Das Aufsichtsgremium von Meta hat einen neuen Fall ins Rampenlicht gerückt, der seiner Ansicht nach für seine strategischen Prioritäten relevant ist. In einem Beitrag gab der Vorstand bekannt, dass er in den nächsten Wochen öffentliche Kommentare zu einem Fall prüfen und annehmen wird, in dem gegen die Nichtentfernung von Inhalten durch Meta Berufung eingelegt wird das den Holocaust leugnet auf seinen Plattformen. Konkret geht es in diesem Fall um einen auf Instagram verbreiteten Beitrag, der eine Sprechblase auf einem Bild mit Thaddäus, einer Figur aus SpongeBob Schwammkopf, platziert und leugnet, dass der Holocaust stattgefunden hat. Die Bildunterschrift und die Hashtags richteten sich auch an „bestimmte geografische Zielgruppen“.

Der Beitrag wurde ursprünglich im September 2020 von einem Account mit 9.000 Followern veröffentlicht und rund 1.000 Mal aufgerufen. Einige Wochen später überarbeitete Meta seine Inhaltsrichtlinien, um die Leugnung des Holocaust zu verbieten. Trotz der neuen Regeln und der Meldung mehrerer Benutzer wurde der Beitrag nicht schnell entfernt. Einige der Berichte wurden aufgrund der „COVID-19-bezogenen Automatisierungsrichtlinien“ des Unternehmens automatisch geschlossen, die eingeführt wurden, damit die begrenzte Anzahl menschlicher Prüfer von Meta Berichte priorisieren kann, die als „hochriskant“ eingestuft werden. Anderen Reportern wurde automatisch mitgeteilt, dass der Inhalt nicht gegen die Richtlinien von Meta verstößt.

Einer der Benutzer, die den Beitrag gemeldet hatten, entschied sich, gegen den Fall Berufung beim Ausschuss einzulegen, der zu dem Schluss kam, dass dies im Einklang mit seinen Bemühungen steht, „Hassreden gegen marginalisierte Gruppen“ zu priorisieren. Der Vorstand bittet nun um Stellungnahmen zu mehreren relevanten Themen, beispielsweise zum Einsatz von Automatisierung zur präzisen Durchführung von Durchsetzungsmaßnahmen gegen Hassrede und zum Nutzen der Transparenzberichterstattung von Meta.

In einem Beitrag auf der Transparenzseite von Meta gab das Unternehmen zu, dass es den Inhalt nach einer ersten Überprüfung offen gelassen hatte. Letztendlich kam es jedoch zu dem Schluss, dass das Unternehmen versehentlich verlassen wurde und gegen seine Richtlinien zu Hassreden verstoßen hatte. Das Unternehmen hat die Inhalte inzwischen von seinen Plattformen entfernt, versprach jedoch, die Entscheidung des Vorstands umzusetzen. Das Aufsichtsgremium von Meta kann auf der Grundlage seiner Untersuchungen politische Empfehlungen aussprechen, diese sind jedoch nicht bindend und das Unternehmen ist nicht verpflichtet, ihnen zu folgen. Basierend auf den Fragen, die der Vorstand der Öffentlichkeit beantworten möchte, könnte er Empfehlungen ausarbeiten, die die Art und Weise verändern würden, wie Meta Automatisierung zur Überwachung von Instagram und Facebook nutzt.

source-115

Leave a Reply