Facebook kann brutale Todesdrohungen gegen Wahlhelfer nicht entfernen


Bild für den Artikel mit dem Titel Facebook’s Failing to Remove Brutal Death Threats Targeting Election Works

Foto: Jessica McGowan (Getty Images)

Meta, trotz wiederholt begehen die Sicherheitspolitik vor den Zwischenwahlen 2022 zu verstärken, scheint weitaus schlechter abzuschneiden als seine konkurrierenden Social-Media-Dienste, wenn es darum geht, Morddrohungen gegen Wahlhelfer aufzudecken und zu entfernen.

Diese Erkenntnisse sind Teil einer neuen Ermittlung durchgeführt von Global Witness und der NYU Cybersecurity for Democracy, die behauptet, Facebook habe 15 von 20 Anzeigen auf seiner Plattform genehmigt, die brutale Todesdrohungen gegen Wahlhelfer enthielten. Als Forscher versuchten, genau diese Anzeigen auf TikTok und You zu schaltenTube hingegen sperrten die Plattformen schnell ihre Konten. Die Ergebnisse deuten darauf hin, dass Facebook einen weniger strengen Ansatz zur Moderation gewalttätiger Politiker verfolgtcal Inhalt als seine Peer-Unternehmen, obwohl Führungskräfte kürzlich zur Verfügung gestellt haben Versicherungen Die Plattform würde die Sicherheit vor den Zwischenwahlen 2022 erhöhen.

So führen die Forscher ihr Experiment durch fand 10 reale Beispiele für Social-Media-Beiträge, darunter Todesdrohungen gegen Wahlhelfer. Gizmodo überprüfte Kopien dieser Anzeigen, von denen viele auf die Erhängung oder Massenexekution von Wahlhelfern anspielten. Eine der an die Arbeiter gerichteten Anzeigen lautete: „Ich hoffe, Ihre Kinder werden missbraucht.“

„Alle Morddrohungen waren in ihrer Sprache erschreckend klar; keiner war kodiert oder schwer zu interpretieren“, schrieben die Forscher.

Nachdem sie die Anzeigen gesammelt hatten, entschieden sich die Forscher dafür, Obszönitäten und Grammatikfehler zu entfernen. Dies wurde getan, um sicherzustellen, dass die Posts in Frage wurden wegen Morddrohungen und nicht wegen expliziter Sprache markiert. Die Anzeigen wurden einen Tag vor den Zwischenwahlen sowohl auf Englisch als auch auf Spanisch eingereicht.

Während es den Anschein hat, haben YouTube und TikTok schnell gehandelt, um den Forscher zu suspendierens’ Konto, das gleiche kann nicht für Facebook gesagt werden. Berichten zufolge genehmigte Facebook neun der zehn englisch-Todesdrohungen und sechs von zehn spanischen Posten. Obwohl diese Beiträge eindeutig gegen die Nutzungsbedingungen von Meta verstießen, wurden die Konten der Forscher geschlossen.

Ein Meta-SprecherAlsonpunshed zurück auf die investigatian’s in einer E-Mail an Gizmodo zu finden, in der der Beitrag stehtsind die Forscher verwendet wurden, seien „nicht repräsentativ für das, was die Leute auf unseren Plattformen sehen“. Der Sprecher fuhr fort, Meta für seine Bemühungen zu applaudieren, Inhalte anzugehen, die zu Gewalt gegen Wahlhelfer aufstacheln.

„Inhalte, die zu Gewalt gegen Wahlhelfer oder andere Personen aufstacheln, haben in unseren Apps keinen Platz, und die jüngsten Berichte haben deutlich gemacht, dass die Fähigkeit von Meta, mit diesen Problemen umzugehen, die anderer Plattformen effektiv übersteigt“, sagte der Sprecher. „Wir bleiben bestrebt, uns weiter zu verbessern unsere Systeme.“

Das spezifische Die Mechanismen, die zugrunde liegen, wie Inhalte auf die Bildschirme der Zuschauer gelangen, sind von Plattform zu Plattform unterschiedlich. Obwohl Facebook die Todesdrohungsanzeigen genehmigt hat, ist esEs ist möglich, dass der Inhalt noch abgefangen wurde eine andere Erkennungsmethode irgendwann, entweder bevor es veröffentlicht wurde oder nachdem es live ging. Dennoch, die Forscher Die Ergebnisse weisen auf einen deutlichen Unterschied im Erkennungsprozess von Meta für gewalttätige Inhalte im Vergleich zu YouTube oder TikTok in dieser frühen Phase des Inhaltsmoderationsprozesses hin.

Wahlhelfer waren in dieser Zwischensaison einer schwindelerregenden Reihe gewalttätiger Drohungen ausgesetzt, wobei viele dieser Anrufe Berichten zufolge der Weigerung des ehemaligen Präsidenten Donald Trump, die Wahlen 2020 zuzulassen, nachgelagert waren. Das FBIdas Heimatschutzministeriumund Das Büro der US-Anwälte, alle in den letzten Monaten veröffentlichten Erklärungen, in denen die zunehmenden Drohungen gegen Wahlhelfer anerkannt wurden. Im Juni gab das DHS eine öffentliche Warnung heraus, dass „Gewaltaufrufe durch inländische gewaltbereite Extremisten“, die sich an Wahlhelfer richten, „wahrscheinlich zunehmen werden“.

Meta seinerseits behauptet, es habe seine Reaktionsfähigkeit auf potenziell schädliche mittelfristige Inhalte erhöht. Im Laufe des Sommers hat Nick Clegg, President of Global Affairs des Unternehmens, veröffentlicht Ein Blog besagt, dass das Unternehmen Hunderte von Mitarbeitern hat, die auf 40 Teams verteilt sind, die sich speziell auf die Midterms konzentrieren. Damals sagte Meta, es werde Anzeigen auf seinen Plattformen verbieten, die Menschen dazu auffordern, nicht zur Wahl zu gehen, oder Posts, die die Legitimität der Wahlen in Frage stellen.

Die Forscher von Global Witness und NYU wollen, dass Meta weitere Schritte unternimmt. Sie forderten das Unternehmen auf, die Wahl-verwandte Funktionen zur Moderation von Inhalten, enthalten vollständige Details aller Anzeigen, ermöglichen unabhängigere Dritt-Parteikontrolle und Veröffentlichung von Informationen über die Schritte, die sie unternommen haben, um die Wahlsicherheit zu gewährleisten.

„Die Tatsache, dass YouTube und TikTok es geschafft haben, die Morddrohungen aufzudecken und unser Konto zu sperren, während Facebook die Veröffentlichung der Mehrheit der Anzeigen erlaubte, zeigt, dass das, was wir verlangen, technisch möglich ist“, schrieben die Forscher.

source-113

Leave a Reply