Social Media Superspreader – Fehlinformationsmonitor

Facebook und Twitter haben es versäumt, ihre Benutzer vor 43 Konten zu schützen, die weiterhin gefährliche COVID-19-Fehlinformationen verbreiten, obwohl sie letztes Jahr von NewsGuard an die Plattformen gemeldet wurden. Von 85 Konten, die von NewsGuard wegen der Verbreitung von Fehlinformationen über das Virus zu Beginn der Pandemie gekennzeichnet wurden, haben mehr als die Hälfte von den Plattformen keine sichtbaren Maßnahmen gegen sie ergriffen. Fast ein Viertel von ihnen ist gewachsen, und diejenigen, die gewachsen sind, haben über 1 Million neue Follower oder Likes gewonnen

Dieses langfristige Versäumnis der Plattformen, bekannte Schäden durch ihre Produkte zu beheben, erklärt, warum Gesetzgeber und Regulierungsbehörden zunehmend nach Lösungen suchen, die über die Hoffnung hinausgehen, dass diese Unternehmen ihre Benutzer freiwillig schützen.

Im April 2020 veröffentlichte NewsGuard vier Berichte über COVID-19-Fehlinformationen „Superspreader“ auf Facebook und Twitter in den USA und Europa. In diesen Berichten wurden 85 Konten und Seiten auf beiden Plattformen hervorgehoben, die eindeutig falsche Informationen im Zusammenhang mit der COVID-19-Pandemie geteilt hatten.

Facebook und Twitter wurden nach der Veröffentlichung auf diese Berichte aufmerksam und beide erhielten Presseberichte, in denen Facebook und Twitter kommentierte die Ergebnisse von NewsGuard. Im November 2021 waren jedoch 43 dieser Konten noch aktiv und 19 von ihnen verzeichneten einen Anstieg ihrer Likes oder Follower, wie eine NewsGuard-Überprüfung ergab. Alle 43 haben seitdem weitere falsche Informationen im Zusammenhang mit COVID-19 verbreitet.

Foto von Alexander Shatov auf Unsplash/NewsGuard

Facebook und Twitter könnten eine Reihe wirksamer Schritte unternehmen, um den von diesen Herausgebern verursachten Schaden zu mindern, der über den undurchsichtigen, nicht nachvollziehbaren und nachweislich inkonsistenten Schritt hinausgeht, sie einfach zu zensieren, indem sie sie entfernen oder die Anzahl der Benutzer unterdrücken, die sie sehen. Dazu könnten die Faktenprüfung einzelner Posts gehören, obwohl die Faktenprüfung schwer zu skalieren ist und nur dann effektiv ist, wenn falsche Behauptungen weit verbreitet sind. Plattformen könnten auch den skalierbareren und effektiveren Schritt ergreifen, indem sie proaktiv Bewertungen und Labels bereitstellen, um ihren Nutzern zu erklären, dass eine Quelle in ihren Newsfeeds oder in Facebook-Gruppen bekanntermaßen falsche Informationen verbreitet und dass Nutzer mit Vorsicht vorgehen sollten. Plattformen könnten ihre Produkte für unabhängige Dritte öffnen, die Hinweise auf die Vertrauenswürdigkeit von Quellen geben, sodass Benutzer die Wahl haben, auf Sicherheitsschutz und andere Middleware-Lösungen zuzugreifen.

Zu den falschen Behauptungen, die von Konten geteilt wurden, die im April 2020 von NewsGuard gemeldet wurden und die entweder auf Facebook oder Twitter noch aktiv sind, gehören:

  • COVID-19 existiert nicht
  • Bill Gates kündigte an, dass COVID-19-Impfstoffe zu 700.000 Todesfällen führen würden
  • Die 5G-Technologie ist mit der Verbreitung von COVID-19 verbunden
  • COVID-19 wurde in einer Simulation vorhergesagt
  • Vitamin C kann COVID-19 verhindern
  • COVID-19 ist eine “biologische Waffe, die in einem amerikanischen Militärlabor hergestellt wurde”
  • Gesunde Menschen „erleiden keinen Schaden“ von COVID-19
  • COVID-19-Impfstoffe verfügen über eine von Bill Gates finanzierte Mikrochip-Tracking-Technologie

Von den 26 Accounts, die NewsGuard bei Twitter gemeldet hatte, waren 13 noch aktiv und 10 gewannen 358.927 neue Follower, was einem Anstieg von durchschnittlich über 23,7 Prozent entspricht. Von den 59 Accounts, die NewsGuard bei Facebook gemeldet hatte, waren 31 noch aktiv und neun gewannen 718.000 neue „Gefällt mir“-Angaben, was einem Anstieg von durchschnittlich knapp vier Prozent entspricht.

Zusammengenommen haben die aktiven Facebook- und Twitter-Konten, die falsche Behauptungen veröffentlichen, die gewachsen sind, seit April 2020 1.076.927 neue “Gefällt mir” oder Follower gewonnen.

Fünf Facebook-Konten und ein Twitter-Konto, die in den Berichten von NewsGuard vom April 2020 enthalten waren, wurden für diese Analyse nicht als aktiv erachtet, da sie seitdem die Veröffentlichung von COVID-19-Fehlinformationen eingestellt haben.

Obwohl Twitter einen höheren Anteil (50 Prozent) der markierten Konten entfernte als Facebook (47,5 Prozent), verzeichneten diejenigen, die auf Twitter blieben, einen deutlich höheren Anstieg ihrer Follower (durchschnittlich 23,7 Prozent) als die Seiten und Konten, die auf Facebook aktiv blieben (3,9 Prozent im Durchschnitt).

Grenzüberschreitende Inkonsistenzen

Die Maßnahmen von Twitter und Facebook gegen diese Seiten waren je nach Herkunftsland uneinheitlich. Twitter entfernte mehr als die Hälfte der markierten Konten in den USA, während alle bis auf einen der frankophonen Konten noch aktiv waren. Bei Facebook zeigte sich ein ähnliches Muster. Die USA verzeichneten mit 38 Prozent der gelöschten Konten den größten Anteil an Entfernungen, während Frankreich nur 17 Prozent entfernte.

Der Bericht von NewsGuard vom April 2020 zu COVID-19-Fehlinformationen „Superspreader“ auf Facebook enthielt mindestens neun Seiten, auf denen die falschen Behauptungen geteilt wurden, dass Vitamin C COVID-19 heilen kann. Von diesen neun wurden vier entfernt und fünf bleiben aktiv. Facebook-Nutzer erhalten von der Plattform keinen Hinweis darauf, warum bestimmte Seiten Fehlinformationen verbreiten dürfen, während andere entfernt werden.

Diese Ergebnisse spiegeln die von zwei anderen aktuellen NewsGuard-Berichten wider. Ein Bericht vom Oktober 2021 an die Weltgesundheitsorganisation und andere NGOs, Gesundheitsbehörden, Aufsichtsbehörden und Regierungsbeamte in Europa und den USA zeigte, dass 20 Konten, Seiten oder Gruppen auf Facebook gewonnen wurden, von denen bekannt war, dass sie COVID-19 oder Anti-Impfstoff-Fehlinformationen verbreiteten 370.000 Follower zusammen in einem Jahr. Die Sonstiges, veröffentlicht im September 2021, zeigte, dass die Video-Sharing-App TikTok Kinder ab 9 Jahren mit Fehlinformationen über Impfstoffe versorgte, ohne dass sie irgendwelchen Konten folgen oder die Suchleiste verwenden.

Die anhaltende Toleranz der Plattformen gegenüber dieser Art von toxischen Fehlinformationen könnte darauf zurückzuführen sein, dass sie absichtlich undurchsichtig bei der Entscheidungsfindung in Bezug auf Fehlinformationen, Faktenprüfung und Entfernung von Inhalten sind. Im Oktober 2021 wurden Dokumente von Facebook-Whistleblower France Haugen durchgesickert zeigte dass Facebook mehrere große Studien zur Verbreitung von COVID-19- und Impfstoff-Fehlinformationen in seinen Apps durchgeführt hat. Facebooks eigene Recherchen zeigten, dass Echokammern von Fehlinformationen die Impfzögerlichkeit schürten und dass Posts aus zuverlässigen Informationsquellen wie der Weltgesundheitsorganisation mit Kommentaren von Anti-Impfstoff-Aktivisten in Facebook-Apps überhäuft wurden. Trotz Anfragen von Experten, Gesetzgebern und der Biden-Administration hat sich Facebook dafür entschieden, diese Daten geheim zu halten.

Es bleibt unklar, wie Plattformen bestimmen, welche Seiten entfernt werden und welche nicht. Selbst wenn Konten dieselben Hoaxes teilen, werden einige entfernt, andere nicht.

Der Bericht von NewsGuard vom April 2020 zu COVID-19-Fehlinformationen „Superspreader“ auf Twitter fand vier Seiten, auf denen falsche Behauptungen geteilt wurden, die die 5G-Technologie mit der Verbreitung von COVID-19 in Verbindung brachten. Auch hier haben die Benutzer keine Möglichkeit zu wissen, warum bestimmte Konten, die Fehlinformationen verbreiten, entfernt werden und andere auf der Plattform verbleiben.

Die Entfernung ist keineswegs ein Allheilmittel oder sogar das wünschenswerteste Ergebnis. Social-Media-Unternehmen könnten zum Schutz ihrer Nutzer beitragen, indem sie diese Konten als mit geteilten Fehlinformationen kennzeichnen. Die Bewaffnung der Benutzer mit mehr Informationen, nicht weniger durch das heimliche Unterdrücken oder Entfernen von Inhalten, ermöglicht es ihnen, zu beurteilen, welche Seiten den grundlegenden Standards vertrauen können und welche nicht. Stattdessen werden undurchsichtige Entfernungsrichtlinien inkonsistent verwendet, und Benutzer bleiben im Dunkeln, wie Entscheidungen über die von ihnen angezeigten Inhalte getroffen werden.

Zusammenfassung der Ergebnisse

Alle 85 Konten, die NewsGuard im April 2020 wegen Verbreitung von COVID-19-Fehlinformationen gekennzeichnet hatte, haben dies weiterhin getan. 43 haben keine Maßnahmen gegen sie ergriffen und 19 haben ihre Followerzahlen im Durchschnitt um 13,8 Prozent erhöht.

Von den 26 Konten, die NewsGuard wegen der Verbreitung von COVID-19-Fehlinformationen auf Twitter gemeldet hat, wurden bei 13 keine Maßnahmen gegen sie ergriffen und 10 von ihnen haben ihre Followerzahl um 358.927 erhöht, was einem durchschnittlichen Anstieg von 23,7 Prozent entspricht.

Von den 59 Konten, die NewsGuard wegen der Verbreitung von COVID-19-Fehlinformationen an Facebook gemeldet hat, wurden bei 31 keine Maßnahmen gegen sie ergriffen, und 9 von ihnen haben ihre Anzahl der „Gefällt mir“-Angaben um 718.000 erhöht, was einem durchschnittlichen Anstieg von 3,9 Prozent entspricht.

Von Alex Cadier
Zusätzliche Berichterstattung von
Melissa Goldin, China Labbe, Kendrick McDonald, Virginia Padovese, und Marie Richter

source site-13

Leave a Reply