Metas Aufsichtsgremium fordert Facebook und Instagram auf, das Verbot von „Shaheed“ aufzuheben


Das Aufsichtsgremium von Meta, dem Social-Media-Riesen, dem Facebook, Instagram und WhatsApp gehören, hat entschieden, dass ein Verbot der Verwendung des Wortes „Shaheed“ – „Märtyrer“ auf Arabisch – aufgehoben werden sollte. Meta hat eingeräumt, dass der Begriff „Shaheed“ im Rahmen der Inhaltsmoderationsrichtlinie des Unternehmens für mehr Inhaltsentfernungen verantwortlich ist als jedes andere einzelne Wort oder jede andere Phrase auf seinen Plattformen.

In einem Grundsatzhinweis erklärte das Aufsichtsgremium des Unternehmens: „Das Gremium hat festgestellt, dass der aktuelle Ansatz von Meta die freie Meinungsäußerung unverhältnismäßig einschränkt, unnötig ist und dass das Unternehmen dieses generelle Verbot beenden sollte.“

Das Aufsichtsgremium von Meta wurde 2020 gegründet. Es wird von Meta finanziert, operiert jedoch unabhängig vom Unternehmen. Wenn Facebook und Instagram Entscheidungen treffen, bestimmte Inhalte von ihren Plattformen zu entfernen, kann Meta den Vorstand bitten, diese Entscheidungen zu überprüfen, insbesondere wenn sie Kontroversen hervorrufen. Der Vorstand fungiert praktisch als Ombudsmann, der Empfehlungen abgibt und Entscheidungen erlässt, mit denen die von Meta getroffenen Entscheidungen entweder bestätigt oder aufgehoben werden.

Hier erfahren Sie, was wir über die Empfehlung des Aufsichtsgremiums wissen und wie es zu seiner Entscheidung kam.

Warum entfernt Meta Inhalte, die das Wort „Shaheed“ enthalten?

Metas aktuelle Inhaltsmoderationsrichtlinie geht davon aus, dass der Begriff „Shaheed“ als „Lob“ verwendet wird, wenn er in Bezug auf Organisationen erwähnt wird, die auf der DOI-Liste (Dangerous Organizations and Individuals) aufgeführt sind.

Die oberste Stufe dieser Liste umfasst sogenannte „Hassorganisationen; kriminelle Organisationen, einschließlich derjenigen, die von der Regierung der Vereinigten Staaten benannt wurden“. Laut Meta handelt es sich dabei um Einzelpersonen und Organisationen, bei denen davon ausgegangen wird, dass sie „schweren Offline-Schaden“ anrichten.

Die politische Empfehlung des Aufsichtsgremiums erfolgt nach wiederholter Kritik an Meta wegen seines Vorgehens gegenüber Inhalten, die von palästinensischen und arabischsprachigen Personen gepostet werden.

Zuletzt beispielsweise veröffentlichte Human Rights Watch im Dezember letzten Jahres einen Bericht, der zu dem Schluss kam, dass Metas Richtlinien zur Inhaltsmoderation einer Zensur von Inhalten im Zusammenhang mit dem anhaltenden israelisch-palästinensischen Konflikt gleichkamen.

In einem 51-seitigen Bericht sagte die Menschenrechtsgruppe, dass Meta seine DOI-Politik missbraucht habe, um „legitime Meinungsäußerungen über Feindseligkeiten zwischen Israel und bewaffneten palästinensischen Gruppen einzuschränken“.

Meta begann im Jahr 2020 einen eigenen internen Dialog über seinen Ansatz zur Verwendung des Begriffs „Shaheed“ auf seinen Plattformen, konnte jedoch keinen Konsens erzielen.

Eine von der Gruppe im Jahr 2021 eingeleitete unabhängige Untersuchung ergab, dass die Inhaltsmoderationsrichtlinien des Unternehmens „offenbar negative Auswirkungen auf die Menschenrechte der palästinensischen Nutzer hatten“ und „die Fähigkeit der Palästinenser, Informationen und Erkenntnisse über ihre Erfahrungen auszutauschen“, beeinträchtigten wie sie geschahen“.

Im Februar letzten Jahres forderte Meta daher das Aufsichtsgremium auf, eine Richtlinienempfehlung dazu abzugeben, ob es weiterhin Inhalte entfernen sollte, die den arabischen Begriff in Bezug auf Einzelpersonen oder Gruppen verwenden, die in seiner DOI-Richtlinie aufgeführt sind.

Palästinensische Aktivisten und Journalisten halten Transparente mit ihrem Kampagnen-Hashtag „#FBCensorsJerusalem“, während sie am 24. November 2021 in der besetzten Stadt Hebron im Westjordanland gegen die Zensur palästinensischer Inhalte durch das Social-Media-Netzwerk Facebook protestieren
Palästinensische Aktivisten und Journalisten protestieren am 24. November 2021 in der besetzten Stadt Hebron im Westjordanland gegen die ihrer Meinung nach Zensur palästinensischer Inhalte durch Facebook [Hazem Bader/AFP]

Wie ging das Aufsichtsgremium bei der Prüfung dieser Angelegenheit vor?

Nighat Dad, ein Mitglied des Aufsichtsgremiums, sagte gegenüber Al Jazeera, dass Meta dem Gremium mehrere Optionen zur Prüfung vorgeschlagen habe, einschließlich der Beibehaltung des Status quo, das Gremium jedoch nicht an diese Optionen gebunden sei und nach „umfangreichen, mehr als“ auch andere Wege geprüft habe eine einjährige Beratung“.

Sie fügte hinzu, dass die Diskussion der Gruppe über die Verwendung von „Shaheed“ das Testen der Empfehlungen in realen Situationen nach Kriegsbeginn im Oktober letzten Jahres beinhaltete.

„Wir wollten sehen, wie Menschen Meta-Plattformen nutzen, und haben unsere Recherche durchgeführt, um die Nutzung durch Menschen zu ermitteln. „Wir haben festgestellt, dass unsere Empfehlungen auch unter den Bedingungen des aktuellen Konflikts Bestand haben“, sagte sie.

Was empfahl das Aufsichtsgremium?

In seinem Bericht, der am 26. März veröffentlicht wurde, sagte das Aufsichtsgremium, dass Metas derzeitige Herangehensweise an den Begriff „Märtyrer“ „zu weit gefasst ist und die freie Meinungsäußerung erheblich und unverhältnismäßig einschränkt“.

Der Bericht fügte außerdem hinzu, dass Meta die „linguistische Komplexität“ des Begriffs nicht verstanden habe und dass seine Richtlinien zur Inhaltsmoderation ihn nur als Äquivalent des englischen Wortes „Martyr“ behandelten.

Der Vorstand stellte fest, dass Meta davon ausging, dass die Bezugnahme auf eine Person oder Organisation auf der vorgesehenen Liste „immer ein Lob“ im Sinne der DOI-Richtlinie des Unternehmens darstellt, was zu einem generellen Verbot führte.

„Dies beeinträchtigt die Meinungs- und Medienfreiheit erheblich, schränkt den bürgerlichen Diskurs übermäßig ein und hat schwerwiegende negative Auswirkungen auf Gleichheit und Nichtdiskriminierung“, heißt es weiter.

Dad sagte, die Diskussionen innerhalb des Vorstands seien ausführlich gewesen, da die Gruppe die Verwendung des Begriffs in verschiedenen Kontexten untersuchte und „extrem genau darauf geachtet habe, dass bei jeder Änderung der Politik ein Schaden in der realen Welt entstehen könnte“.

„Als Vorstand kamen wir letztendlich zu dem Schluss, dass Metas Herangehensweise an die Bekämpfung des Problems kontraproduktiv war, was häufig dazu führte, dass Journalisten nicht mehr über bewaffnete Gruppen berichteten und dass die Möglichkeiten der Menschen, über Gewalt zu debattieren und sie zu verurteilen, eingeschränkt wurden“, sagte sie.

Sind Empfehlungen des Aufsichtsgremiums verbindlich?

Meta sagte, es werde die Empfehlungen des Gremiums prüfen und innerhalb von 60 Tagen antworten. Die diesbezüglichen Empfehlungen des Gremiums sind jedoch nicht verbindlich.

„Unsere Entscheidungen in allen Angelegenheiten im Zusammenhang mit Meta sind bindend, aber wenn es um politische Beratung geht, die von Meta selbst eingeholt wird, sind sie es nicht“, erklärte Dad.

Sie fügte jedoch hinzu, dass der Vorstand über einen „robusten Mechanismus“ verfüge, mit dem er nachverfolgen und sicherstellen könne, dass die Umsetzung der Empfehlung in Betracht gezogen werde.

„Wir haben einen Umsetzungsausschuss und wenden uns regelmäßig an Meta, um anhand unserer Beratungsmeinung nachzuverfolgen, was sie getan haben“, sagte sie.

source-120

Leave a Reply