Das Oversight Board äußert sich zu Metas meistmoderiertem Wort


Das Aufsichtsgremium fordert Meta dazu auf, die Art und Weise zu ändern, wie es das Wort „Shaheed“ moderiert, einen arabischen Begriff, der zu mehr Entfernungen geführt hat als jedes andere Wort oder jede andere Phrase auf den Plattformen des Unternehmens. Meta bat die Gruppe um Hilfe bei der Ausarbeitung neuer Regeln Nachdem Versuche, es intern zu überarbeiten, ins Stocken geraten waren.

Das arabische Wort „Shaheed“ wird oft mit „Märtyrer“ übersetzt, obwohl die Behörde feststellt, dass dies keine genaue Definition ist und das Wort „mehrere Bedeutungen“ haben kann. Die aktuellen Regeln von Meta basieren jedoch nur auf der „Märtyrer“-Definition, die nach Angaben des Unternehmens Lob impliziert. Dies hat zu einem „pauschalen Verbot“ des Wortes geführt, wenn es im Zusammenhang mit Personen verwendet wird, die vom Unternehmen als „gefährliche Personen“ eingestuft wurden.

Allerdings ignoriert diese Politik die „linguistische Komplexität“ des Wortes, das „häufig, selbst in Bezug auf gefährliche Personen, in der Berichterstattung und in neutralen Kommentaren, in akademischen Diskussionen, in Menschenrechtsdebatten und noch passiveren Formen verwendet wird“, sagt das Oversight Board seiner Meinung nach. „Es gibt gute Gründe zu der Annahme, dass die vielfältigen Bedeutungen von ‚Shaheed‘ dazu führen, dass eine beträchtliche Menge an Material entfernt wird, das nicht als Lob für Terroristen oder ihre gewalttätigen Taten gedacht ist.“

In seinen Empfehlungen an Meta sagt das Aufsichtsgremium, dass das Unternehmen sein „pauschales Verbot“ der Verwendung des Wortes zur Bezugnahme auf „gefährliche Personen“ beenden sollte und dass Beiträge nur entfernt werden sollten, wenn es andere klare „Anzeichen von Gewalt“ gibt oder wenn der Inhalt gegen andere Richtlinien verstößt. Der Vorstand möchte außerdem, dass Meta besser erklärt, wie automatisierte Systeme zur Durchsetzung dieser Regeln eingesetzt werden.

Wenn Meta die Empfehlungen des Oversight Board annimmt, könnte dies erhebliche Auswirkungen auf die arabischsprachigen Benutzer der Plattform haben. Der Vorstand stellt fest, dass das Wort, weil es so häufig vorkommt, wahrscheinlich „für mehr Inhaltsentfernungen gemäß den Gemeinschaftsstandards verantwortlich ist als jedes andere einzelne Wort oder jede andere Phrase“ in den Apps des Unternehmens.

„Meta ging davon aus, dass Zensur die Sicherheit verbessern kann und wird, aber die Beweise deuten darauf hin, dass Zensur ganze Bevölkerungsgruppen marginalisieren kann, ohne die Sicherheit überhaupt zu verbessern“, sagte die Co-Vorsitzende des Gremiums (und ehemalige dänische Premierministerin) Helle Thorning-Schmidt sagte in einer Erklärung. „Der Vorstand ist besonders besorgt darüber, dass Metas Ansatz Auswirkungen auf den Journalismus und den bürgerschaftlichen Diskurs hat, da Medienorganisationen und Kommentatoren möglicherweise davor zurückschrecken, über bestimmte Organisationen zu berichten, um die Entfernung von Inhalten zu vermeiden.“

Dies ist nicht das erste Mal, dass Meta wegen Moderationsrichtlinien kritisiert wird, die sich unverhältnismäßig stark auf arabischsprachige Benutzer auswirken. Eine vom Unternehmen beauftragte Studie stellte fest, dass die Moderatoren von Meta bei der Beurteilung des palästinensischen Arabisch weniger genau waren, was zu „falschen Treffern“ auf den Benutzerkonten führte. Das Unternehmen Letztes Jahr, nachdem die automatisierten Übersetzungen von Instagram damit begannen, das Wort „Terrorist“ in die Profile einiger palästinensischer Nutzer einzufügen.

Die Stellungnahme ist auch ein weiteres Beispiel dafür, wie lange es dauern kann, bis Metas Aufsichtsgremium Einfluss auf die Richtlinien des sozialen Netzwerks nimmt. Das Unternehmen forderte den Vorstand erstmals vor mehr als einem Jahr auf, sich zu den Regeln zu äußern (das Aufsichtsgremium sagte, es habe die Veröffentlichung der Richtlinie nach den Anschlägen vom 7. Oktober in Israel „pausiert“, um sicherzustellen, dass seine Regeln dem „extremen Stress standhalten“) ” des Konflikts in Gaza). Meta hat nun zwei Monate Zeit, um auf die Empfehlungen zu reagieren, obwohl die Umsetzung tatsächlicher Änderungen an den Richtlinien und Praktiken des Unternehmens noch mehrere Wochen oder Monate dauern könnte.

„Wir möchten, dass die Menschen unsere Plattformen nutzen können, um ihre Ansichten zu teilen, und dass wir über eine Reihe von Richtlinien verfügen, die ihnen dabei helfen, dies sicher zu tun“, sagte ein Meta-Sprecher in einer Erklärung. „Unser Ziel ist es, diese Richtlinien fair anzuwenden, aber dies in großem Maßstab mit sich zu bringen, bringt globale Herausforderungen mit sich. Deshalb haben wir im Februar 2023 das Aufsichtsgremium um Rat gefragt, wie wir mit dem Wort ‚Shaheed‘ umgehen, wenn wir uns auf bestimmte Personen oder Organisationen beziehen.“ Wir werden das Feedback des Vorstands prüfen und innerhalb von 60 Tagen antworten.“

source-115

Leave a Reply