Elon Musks Twitter lässt Meta smart aussehen


Es war der April 2022, und ich saß im Konferenzraum einer Anwaltskanzlei in Midtown Manhattan bei einer Sitzung des Aufsichtsgremiums von Meta, dem unabhängigen Gremium, das seine inhaltlichen Entscheidungen prüft. Und für ein paar Minuten schien Verzweiflung eingetreten zu sein.

Das vorliegende Thema war das umstrittene Cross-Check-Programm von Meta, das Posts von bestimmten mächtigen Benutzern – Prominenten, Journalisten, Regierungsbeamten und dergleichen – besonders behandelte. Jahrelang wurde dieses Programm im Verborgenen durchgeführt, und Meta führte sogar den Vorstand über seinen Umfang in die Irre. Wann Einzelheiten des Programms wurden durchgesickert Das Wall Street Journal, wurde deutlich, dass Millionen von Menschen diese Sonderbehandlung erhielten, was bedeutet, dass ihre Beiträge mit geringerer Wahrscheinlichkeit entfernt wurden, wenn sie von Algorithmen oder anderen Benutzern wegen Verstoßes gegen Regeln gegen Dinge wie Hassreden gemeldet wurden. Die Idee war, Fehler in Fällen zu vermeiden, in denen Fehler aufgrund der Bekanntheit des Sprechers größere Auswirkungen haben oder Meta in Verlegenheit bringen würden. Interne Dokumente zeigten, dass Meta-Forscher Bedenken hinsichtlich der Korrektheit des Projekts hatten. Erst nach dieser Bekanntmachung bat Meta den Vorstand, einen Blick auf das Programm zu werfen und zu empfehlen, was das Unternehmen damit tun sollte.

Das Treffen, dessen Zeuge ich geworden bin, war Teil dieser Abrechnung. Und der Ton der Diskussion veranlasste mich zu der Frage, ob der Vorstand vorschlagen würde, dass Meta das Programm im Namen der Fairness ganz einstellt. „Die Politik sollte für alle Menschen gelten!“ schrie ein Vorstandsmitglied auf.

Das ist nicht passiert. Diese Woche machte die Social-Media-Welt eine Pause, um den Zugwrack der Moderation von Operninhalten, den Elon Musk auf Twitter durchführt, zu beobachten, als das Aufsichtsgremium endlich lieferte seinen Cross-Check-Bericht, verspätet, weil Meta bei der Bereitstellung von Informationen den Fuß nach hinten gezogen hat. (Es hat dem Vorstand nie eine Liste vorgelegt, aus der hervorgeht, wer eine Sondererlaubnis erhalten hat, einen Takedown abzuwehren, zumindest bis jemand einen genaueren Blick auf den Beitrag geworfen hat.) Die Schlussfolgerungen waren vernichtend. Meta behauptete, dass der Zweck des Programms darin bestehe, die Qualität seiner inhaltlichen Entscheidungen zu verbessern, aber der Vorstand stellte fest, dass es eher dem Schutz der Geschäftsinteressen des Unternehmens diente. Meta hat nie Prozesse eingerichtet, um das Programm zu überwachen und zu beurteilen, ob es seine Mission erfüllt. Der Mangel an Transparenz nach außen war erschreckend. Schließlich versäumte es Meta allzu oft, die schnelle personalisierte Aktion zu liefern, die der Grund dafür war, dass diese Posts von schnellen Takedowns verschont blieben. Es gab einfach zu viele dieser Fälle für Metas Team. Sie blieben oft tagelang wach, bevor sie zweitrangig berücksichtigt wurden.

Das Paradebeispiel, das im Original zu sehen ist WSJ Bericht, war ein Beitrag des brasilianischen Fußballstars Neymar, der ein sexuelles Bild gepostet hat ohne die Zustimmung des Subjekts im September 2019. Aufgrund der Sonderbehandlung, die er als Mitglied der Cross-Check-Elite erhielt, erhielt das Bild – ein offenkundiger Verstoß gegen die Richtlinien – über 56 Millionen Aufrufe, bevor es schließlich entfernt wurde. Das Programm soll die Auswirkungen von inhaltlichen Entscheidungsfehlern reduzieren erhöhen die Wirkung schrecklicher Inhalte.

Dennoch empfahl der Vorstand nicht, dass Meta Cross Check abschaltet. Stattdessen forderte es eine Überholung. Die Begründung ist keineswegs eine Billigung des Programms, sondern ein Eingeständnis der teuflischen Schwierigkeit der inhaltlichen Moderation. Der Subtext von Bericht des Aufsichtsgremiums war die Hoffnungslosigkeit zu glauben, es sei möglich, die Dinge richtig zu machen. Meta hatte wie andere Plattformen, die Benutzern eine Stimme geben, lange Zeit Wert auf Wachstum vor Vorsicht gelegt und riesige Mengen an Inhalten gehostet, die enorme Ausgaben für die Polizei erfordern würden. Meta gibt zwar viele Millionen für Moderation aus – macht aber trotzdem Millionen von Fehlern. Diese Fehler ernsthaft zu reduzieren, kostet mehr, als das Unternehmen auszugeben bereit ist. Die Idee von Cross Check ist es, die Fehlerquote bei Beiträgen der wichtigsten oder prominentesten Personen zu minimieren. Wenn eine Berühmtheit oder ein Staatsmann seine Plattform nutzte, um mit Millionen zu sprechen, wollte Meta es nicht vermasseln.

source-114

Leave a Reply