Inmitten der Kapitol-Aufstände sah sich Facebook seinem eigenen Aufstand gegenüber

Als Unterstützer von Donald Trump am 6. Januar das US-Kapitol stürmten, die Polizei bekämpften und den Gesetzgeber zum Untertauchen zwangen, fand im weltgrößten Social-Media-Unternehmen ein Aufstand der anderen Art statt.

Tausende von Kilometern entfernt versuchten Facebook-Ingenieure in Kalifornien, die internen Kontrollen zu optimieren, um die Verbreitung von Fehlinformationen und aufhetzenden Inhalten zu verlangsamen. Zu den Notfallmaßnahmen – von denen einige nach den Wahlen 2020 zurückgenommen wurden – gehörten das Verbot von Trump, das Einfrieren von Kommentaren in Gruppen mit Rekorden für Hassreden, das Herausfiltern des Rallyerufs „Stop the Steal“ und die Ermächtigung von Inhaltsmoderatoren, durch Kennzeichnung der USA ein „Temporary High Risk Location“ für politische Gewalt.

Zur gleichen Zeit brach innerhalb von Facebook Frustration darüber aus, was einige als die stockende und oft umgekehrte Reaktion des Unternehmens auf den zunehmenden Extremismus in den USA sahen

„Haben wir nicht genug Zeit, um herauszufinden, wie man Diskurse handhabt, ohne Gewalt zu ermöglichen?“ schrieb ein Mitarbeiter auf dem Höhepunkt der Unruhen am 6. Januar in einem internen Message Board. „Wir haben dieses Feuer schon lange geschürt und sollten uns nicht wundern, dass es jetzt außer Kontrolle gerät.“

Diese Frage beschäftigt das Unternehmen noch heute, da der Kongress und die Aufsichtsbehörden die Beteiligung von Facebook an den Unruhen vom 6. Januar untersuchen.

Neue interne Dokumente, die von der ehemaligen Facebook-Mitarbeiterin und Whistleblowerin Frances Haugen bereitgestellt wurden, geben einen seltenen Einblick, wie das Unternehmen anscheinend einfach in den Aufstand vom 6. Januar gestolpert ist. Es wurde schnell klar, dass das soziale Netzwerk selbst nach Jahren unter der Lupe wegen unzureichender Überwachung seiner Plattform übersehen hatte, wie die Teilnehmer der Aufstände wochenlang – auf Facebook selbst – schworen, den Kongress daran zu hindern, Joe Bidens Wahlsieg zu bestätigen.

Die Dokumente scheinen auch Haugens Behauptung zu untermauern, dass Facebook sein Wachstum und seine Gewinne über die öffentliche Sicherheit stellt und das bisher klarste Fenster dafür öffnet, wie die widersprüchlichen Impulse von Facebook – sein Geschäft zu schützen und die Demokratie zu schützen – in den Tagen und Wochen vor dem Versuch aufeinanderprallten 6. Januar Putsch.

Diese Geschichte basiert teilweise auf Offenlegungen, die Haugen an die Securities and Exchange Commission machte und dem Kongress in redigierter Form von Haugens Rechtsbeistand zur Verfügung gestellt wurde. Die dem Kongress übermittelten redigierten Versionen wurden von einem Konsortium von Nachrichtenorganisationen, darunter The Associated Press, beschafft.

Die von Facebook am 6. Januar als „Break the Glass“ bezeichneten Notfallmaßnahmen waren im Wesentlichen ein Instrumentarium von Optionen, um die Verbreitung gefährlicher oder gewalttätiger Inhalte einzudämmen, die das soziale Netzwerk erstmals im Vorfeld der bitteren Wahlen 2020 eingesetzt hatte . Laut einer internen Tabelle, in der die Reaktion des Unternehmens analysiert wurde, wurden bis zu 22 dieser Maßnahmen irgendwann nach der Wahl zurückgenommen.

„Sobald die Wahlen vorbei waren, haben sie sie wieder ausgeschaltet oder die Einstellungen wieder auf die vorherigen gesetzt, um Wachstum über Sicherheit zu stellen“, sagte Haugen in einem Interview mit „60 Minutes“.

Ein interner Facebook-Bericht nach dem 6. Januar, der zuvor von BuzzFeed berichtet wurde, bemängelte das Unternehmen, dass es einen „stückigen“ Ansatz gegenüber dem schnellen Wachstum von „Stop the Steal“-Seiten, verwandten Fehlinformationsquellen und gewalttätigen und aufhetzenden Kommentaren verfolgt.

Facebook sagt, dass die Situation nuancierter ist und dass es seine Kontrollen sorgfältig kalibriert, um schnell auf eine Zunahme von hasserfüllten und gewalttätigen Inhalten zu reagieren, wie es am 6. Januar der Fall war. Das Unternehmen sagte, es sei nicht verantwortlich für die Aktionen der Randalierer und strengere Kontrollen in Platz vor diesem Tag hätte nicht geholfen.

Bei den Entscheidungen von Facebook, bestimmte Sicherheitsmaßnahmen schrittweise ein- oder auszuschalten, wurden Signale von der Facebook-Plattform sowie Informationen der Strafverfolgungsbehörden berücksichtigt, sagte Sprecherin Dani Lever. “Als sich diese Signale änderten, änderten sich auch die Maßnahmen.”

Lever sagte, dass einige der Maßnahmen bis weit in den Februar hinein in Kraft blieben und andere heute noch aktiv sind.

Einige Mitarbeiter waren schon vor den Unruhen vom 6. Januar mit der Verwaltung problematischer Inhalte durch Facebook unzufrieden. Ein Mitarbeiter, der das Unternehmen im Jahr 2020 verließ, hinterließ eine lange Notiz, in der er vorwarf, dass vielversprechende neue Tools, die durch solide Forschung unterstützt werden, von Facebook aus „Angst vor Reaktionen der Öffentlichkeit und der politischen Interessenträger“ eingeschränkt würden (Übersetzung: Bedenken über negative Reaktionen von Trump-Verbündeten und Investoren ).

„In ähnlicher Weise (wenn auch noch besorgniserregender) habe ich gesehen, dass bereits gebaute und funktionierende Sicherheitsvorkehrungen aus den gleichen Gründen zurückgesetzt wurden“, schrieb der Mitarbeiter, dessen Name geschwärzt ist.

Untersuchungen von Facebook, die lange vor der Kampagne 2020 durchgeführt wurden, ließen kaum Zweifel daran, dass sein Algorithmus eine ernsthafte Gefahr darstellen könnte, Fehlinformationen zu verbreiten und Benutzer möglicherweise zu radikalisieren.

Eine Studie aus dem Jahr 2019 mit dem Titel „Carol’s Journey to QAnon – A Test User Study of Misinfo & Polarization Risks Encountered through Recommendation Systems“ beschrieb die Ergebnisse eines Experiments, das mit einem Testkonto durchgeführt wurde, das die Ansichten eines prototypischen „starken Konservativen“ widerspiegelt – aber nicht extremistisch — 41-jährige Frau aus North Carolina. Dieser Testbericht unter dem falschen Namen Carol Smith zeigte eine Vorliebe für Mainstream-Nachrichtenquellen wie Fox News, folgte Humorgruppen, die Liberale verspotteten, das Christentum annahmen und ein Fan von Melania Trump war.

Innerhalb eines einzigen Tages hatten sich die von Facebook selbst generierten Seitenempfehlungen für dieses Konto zu einem „ziemlich beunruhigenden, polarisierenden Zustand“ entwickelt, wie die Studie ergab die gefälschte Benutzerin trat nicht bei, weil sie nicht von Natur aus von Verschwörungstheorien angezogen wurde.

Eine Woche später enthielt der Feed der Testperson „eine Flut von extremen, verschwörerischen und grafischen Inhalten“, darunter Posts, die die falsche Obama-Geburtslüge wiederbeleben und die Clintons mit der Ermordung eines ehemaligen Senators des Bundesstaates Arkansas in Verbindung bringen. Ein Großteil der Inhalte wurde von dubiosen Gruppen aus dem Ausland oder von Administratoren mit einer Erfolgsbilanz für die Verletzung der Facebook-Regeln für Bot-Aktivitäten verbreitet.

Diese Ergebnisse veranlassten den Forscher, dessen Name vom Whistleblower geschwärzt wurde, Sicherheitsmaßnahmen zu empfehlen, die von der Entfernung von Inhalten mit bekannten Verschwörungshinweisen und der Deaktivierung von „Top-Beitragenden“-Abzeichen für Fehlinformationen-Kommentatoren bis hin zur Senkung der Schwellenzahl von Followern reichen, die erforderlich sind, bevor Facebook die Angaben eines Seitenadministrators überprüft. Identität.

Unter den anderen Facebook-Mitarbeitern, die die Studie lasen, war die Reaktion fast durchgängig positiv.

“Hey! Dies ist eine so gründliche und gut umrissene (und beunruhigende) Studie“, schrieb ein Benutzer, dessen Name vom Whistleblower geschwärzt wurde. „Kennen Sie konkrete Veränderungen, die sich daraus ergeben haben?“

Facebook sagte, die Studie sei eines von vielen Beispielen für sein Engagement, seine Plattform kontinuierlich zu studieren und zu verbessern.

Eine weitere Studie mit dem Titel “Understanding the Dangers of Harmful Topic Communities”, die den Ermittlern des Kongresses übergeben wurde, diskutierte, wie gleichgesinnte Personen, die ein Grenzthema oder eine Grenzidentität annehmen, “Echokammern” für Fehlinformationen bilden können, die schädliche Einstellungen normalisieren, Radikalisierung vorantreiben und sogar liefern können eine Rechtfertigung für Gewalt.

Beispiele für solche schädlichen Gemeinschaften sind QAnon und Hassgruppen, die Theorien über einen Rassenkrieg verbreiten.

„Das Risiko von Offline-Gewalt oder -Schaden wird wahrscheinlicher, wenn Gleichgesinnte zusammenkommen und sich gegenseitig beim Handeln unterstützen“, schließt die Studie.

Anklagedokumente, die von der Bundesanwaltschaft gegen diejenigen eingereicht wurden, die das Kapitol gestürmt haben sollen, enthalten Beispiele für solche Gleichgesinnten, die zusammenkommen.

Staatsanwälte sagen, ein angeblicher Anführer der Milizgruppe Oath Keepers habe Facebook genutzt, um vor dem Aufstand im Kapitol mit einer anderen extremistischen Gruppe, den Proud Boys, über die Bildung einer „Allianz“ und die Koordinierung der Pläne zu diskutieren.

„Wir haben beschlossen, zusammenzuarbeiten und diese Sache zu schließen“, schrieb Kelly Meggs, die von den Behörden als Anführerin des Florida-Chapters der Oath Keepers bezeichnet wurde, laut Gerichtsakten auf Facebook.

source site

Leave a Reply