Aufsichtsgremium kritisiert Metas automatisierte Moderation im Israel-Hamas-Krieg


Heute hat das Aufsichtsgremium von Meta seine erste Dringlichkeitsentscheidung zur Moderation von Inhalten auf Facebook veröffentlicht, die durch den Konflikt zwischen Israel und der Hamas ausgelöst wurde.

Im Mittelpunkt der beiden Fälle stehen zwei Inhalte, die auf Facebook und Instagram gepostet wurden: Einer davon zeigt die Folgen eines Streiks auf Al-Shifa-Krankenhaus in Gaza und das andere zeigt die Entführung einer israelischen Geisel, beides hatte das Unternehmen zunächst entfernt und dann wiederhergestellt, als der Vorstand die Fälle übernahm. Das Entführungsvideo wurde entfernt, da es gegen die nach den Hamas-Anschlägen vom 7. Oktober erstellte Richtlinie von Meta verstößt, die Gesichter von Geiseln nicht zu zeigen, sowie gegen die seit langem geltenden Richtlinien des Unternehmens zur Entfernung von damit in Zusammenhang stehenden Inhalten „gefährliche Organisationen und Einzelpersonen.“ Der Beitrag des Al-Shifa-Krankenhauses wurde wegen Verstoßes gegen die Unternehmensrichtlinien in Bezug auf gewalttätige Bilder entfernt.

In den Urteilen unterstützte das Aufsichtsgremium die Entscheidungen von Meta, beide Inhalte wieder aufzunehmen, nahm jedoch einige andere Praktiken des Unternehmens ins Visier, insbesondere die automatisierten Systeme, die es verwendet, um Inhalte zu finden und zu entfernen, die gegen seine Regeln verstoßen. Um hasserfüllte Inhalte oder Inhalte, die zu Gewalt aufstacheln, zu erkennen, verwenden Social-Media-Plattformen „Klassifikatoren“, maschinelle Lernmodelle, die Beiträge kennzeichnen oder entfernen können, die gegen ihre Richtlinien verstoßen. Diese Modelle bilden eine grundlegende Komponente vieler Content-Moderationssysteme, insbesondere weil es zu viele Inhalte gibt, als dass ein Mensch über jeden einzelnen Beitrag eine Entscheidung treffen könnte.

„Wir als Vorstand haben in früheren Entscheidungen bestimmte Schritte empfohlen, einschließlich der Einrichtung eines Krisenprotokollzentrums“, sagte Michael McConnell, einer der Vorsitzenden des Aufsichtsgremiums, gegenüber WIRED. „Automatisierung wird bleiben. Aber meine Hoffnung wäre es, den Menschen gezielt an den Stellen einzugreifen, an denen die automatisierten Systeme am häufigsten Fehler machen, und [that] sind aufgrund des gestiegenen öffentlichen Interesses und der Aufklärung rund um die Konflikte von besonderer Bedeutung.“

Beide Videos wurden aufgrund von Änderungen an diesen automatisierten Systemen entfernt, um sie sensibler für Inhalte aus Israel und Gaza zu machen, die möglicherweise gegen die Richtlinien von Meta verstoßen. Dies bedeutet, dass die Systeme eher versehentlich Inhalte entfernten, die sonst aktiv bleiben sollten. Und diese Entscheidungen können Auswirkungen auf die reale Welt haben.

“Der [Oversight Board] ist der Ansicht, dass Sicherheitsbedenken keinen Fehler bei der Entfernung grafischer Inhalte rechtfertigen, die darauf abzielen, das Bewusstsein für potenzielle Kriegsverbrechen, Verbrechen gegen die Menschlichkeit oder schwere Verletzungen der Menschenrechte zu schärfen oder diese zu verurteilen“, heißt es in der Entscheidung von Al-Shifa. „Solche Beschränkungen können sogar Informationen behindern, die für die Sicherheit der Menschen vor Ort in diesen Konflikten notwendig sind.“ Die derzeitige Richtlinie von Meta besteht darin, Inhalte, die möglicherweise Kriegsverbrechen oder Verbrechen gegen die Menschlichkeit zeigen, ein Jahr lang aufzubewahren. Der Vorstand gibt jedoch an, dass Meta derzeit seine Dokumentationssysteme aktualisiert.

„Wir begrüßen die heutige Entscheidung des Aufsichtsgremiums in diesem Fall“, schrieb Meta in einem Unternehmensblogbeitrag. „Sowohl Ausdruck als auch Sicherheit sind uns und den Menschen, die unsere Dienste nutzen, wichtig.“

source-114

Leave a Reply