Die automatisierten Tools von Meta entfernten Kriegsinhalte zwischen Israel und der Hamas, die nicht gegen die Regeln verstießen


Das Aufsichtsgremium von Meta hat seine Entscheidung für seine erste beschleunigte Überprüfung veröffentlicht, die nur 12 Tage statt Wochen dauerte und sich auf Inhalte rund um den Israel-Hamas-Krieg konzentrierte. Der Vorstand hob die ursprüngliche Entscheidung des Unternehmens auf, zwei Inhalte von beiden Seiten des Konflikts zu entfernen. Da es Metas späteren Schritt zur Wiederherstellung der Beiträge auf Facebook und Instagram unterstützte, werden keine weiteren Maßnahmen seitens des Unternehmens erwartet. Die Überprüfung des Gremiums warf jedoch ein Schlaglicht darauf, wie Metas Abhängigkeit von automatisierten Tools Menschen daran hindern könnte, wichtige Informationen weiterzugeben. In diesem speziellen Fall stellte das Gremium fest, dass „es die Wahrscheinlichkeit erhöht, wertvolle Beiträge zu entfernen, die die Welt über menschliches Leid auf beiden Seiten des Konflikts im Nahen Osten informieren.“

Für seine erste beschleunigte Überprüfung entschied sich das Aufsichtsgremium für die Untersuchung zweier konkreter Einsprüche, die widerspiegeln, was die Nutzer in der betroffenen Region seit den Anschlägen vom 7. Oktober eingereicht haben. Eines davon ist ein auf Facebook gepostetes Video, in dem eine Frau ihre Entführer anfleht, sie nicht zu töten, als sie es tat als Geisel genommen während der ersten Terroranschläge auf Israel. Das andere auf Instagram gepostete Video zeigt die Folgen eines Streik im Al-Shifa-Krankenhaus in Gaza während der israelischen Bodenoffensive. Es zeigte tote und verletzte Palästinenser, darunter auch Kinder.

Die Überprüfung des Gremiums ergab, dass die beiden Videos fälschlicherweise entfernt wurden, nachdem Meta seine automatisierten Tools angepasst hatte, um nach den Anschlägen vom 7. Oktober aggressiver bei der Überwachung von Inhalten vorzugehen. Beispielsweise erfolgten sowohl die Deaktivierung des Videos im Al-Shifa-Krankenhaus als auch die Ablehnung eines Nutzeraufrufs zur Wiedereinsetzung ohne menschliches Eingreifen. Beide Videos wurden später mit Warnhinweisen wiederhergestellt, die darauf hinweisen, dass solche Inhalte zum Zweck der Nachrichtenberichterstattung und der Sensibilisierung zulässig sind. Der Vorstand bemerkte, dass Meta „angesichts der schnelllebigen Umstände und der hohen Kosten für die Freiheit und den Zugang zu Informationen für die Entfernung dieser Art von Inhalten schneller hätte reagieren sollen, um seine Richtlinien anzupassen …“ Es äußerte auch Bedenken hinsichtlich des sich schnell ändernden Ansatzes des Unternehmens Mäßigung könnte den Anschein von Willkür erwecken und seine Politik in Frage stellen.

Das Board stellte jedoch fest, dass Meta die von ihm wiedereingesetzten Inhalte durch Warnmeldungen herabgestuft hat. Sie wurden von der Empfehlung an andere Facebook- und Instagram-Nutzer ausgeschlossen, selbst nachdem das Unternehmen festgestellt hatte, dass sie dazu gedacht waren, das Bewusstsein zu schärfen. Zu beachten ist, dass eine Reihe von Nutzern berichtet hatten, dass ihnen im Oktober ein Schattenverbot auferlegt wurde, nachdem sie Inhalte über die Zustände in Gaza gepostet hatten.

Das Gremium machte auch darauf aufmerksam, dass Meta zwischen dem 20. Oktober und dem 16. November nur zuließ, dass Inhalte zu Geiselnahmen aus den Anschlägen vom 7. Oktober von Nutzern aus seinen Abgleichslisten gepostet wurden. Diese Listen bestehen in der Regel aus hochkarätigen Nutzern, die davon ausgenommen sind das automatisierte Moderationssystem des Unternehmens. Der Vorstand sagte, die Entscheidung von Meta unterstreiche seine Bedenken hinsichtlich des Programms, insbesondere seiner „Ungleichbehandlung der Benutzer“. [and] Mangel an transparenten Kriterien für die Aufnahme.“ Darin hieß es, das Unternehmen müsse „sicherstellen, dass Nutzer, deren Inhalte aus menschenrechtlicher Sicht wahrscheinlich wichtig sind, auf den Gegenkontrolllisten von Meta stärker vertreten sind.“

„Wir begrüßen die heutige Entscheidung des Aufsichtsgremiums in diesem Fall. Ausdruck und Sicherheit sind uns und den Menschen, die unsere Dienste in Anspruch nehmen, wichtig. Der Vorstand hob Metas ursprüngliche Entscheidung auf, diesen Inhalt zu entfernen, stimmte jedoch der späteren Entscheidung zu, den Inhalt mit einer Warnmeldung wiederherzustellen. Meta hat diesen Inhalt bereits zuvor wiederhergestellt, sodass keine weiteren Maßnahmen ergriffen werden“, teilte das Unternehmen Engadget in einer Erklärung mit. „Wie in unserem Hilfecenter erläutert, sind einige Inhaltskategorien nicht für Empfehlungen geeignet und der Vorstand ist nicht damit einverstanden, dass Meta den Inhalt in diesem Fall von Empfehlungsoberflächen ausschließt. Es wird keine weiteren Aktualisierungen zu diesem Fall geben, da der Vorstand im Rahmen seiner Entscheidung keine Empfehlungen ausgesprochen hat.“

source-115

Leave a Reply