Die BBC versucht, Politik zu verstehen, indem sie falsche Amerikaner erschafft


NEW YORK (AP) – Larry, ein 71-jähriger Versicherungsmakler im Ruhestand und Donald Trump-Fan aus Alabama, würde wahrscheinlich nicht auf die liberale Emma, ​​eine 25-jährige Grafikdesignerin aus New York City, stoßen Social Media – auch wenn sie beide echt wären.

Jeder ist ein Hirngespinst BBC-Reporterin Marianna Spring Vorstellung. Sie erstellte fünf falsche Amerikaner und eröffnete Social-Media-Konten für sie, um zu veranschaulichen, wie sich Desinformation auf Seiten wie Facebook, Twitter und TikTok trotz der Bemühungen, sie zu stoppen, verbreitet und wie sich dies auf die amerikanische Politik auswirkt.

Das hat Spring und die BBC auch anfällig für Anklagen gemacht, dass das Projekt ethisch verdächtig ist, falsche Informationen zu verwenden, um falsche Informationen aufzudecken.

„Wir tun dies mit sehr guten Absichten, weil es wichtig ist zu verstehen, was vor sich geht“, sagte Spring. In der Welt der Desinformation „sind die USA das wichtigste Schlachtfeld“, sagte sie.

Die Frühlingsberichterstattung ist erschienen Nachrichtensendungen und Website der BBCsowie den wöchentlichen Podcast “Amerika”, die britische Sicht auf Nachrichten aus den Vereinigten Staaten. Sie begann das Projekt im August mit Blick auf den Zwischenwahlkampf, hofft aber, es bis 2024 fortzusetzen.

Spring arbeitete bei der Einrichtung mit dem Pew Research Center in den USA zusammen fünf Archetypen. Neben dem sehr konservativen Larry und der sehr liberalen Emma gibt es Britney, eine eher populistische Konservative aus Texas; Gabriela, eine weitgehend unpolitische Unabhängige aus Miami; und Michael, ein schwarzer Lehrer aus Milwaukee, der ein gemäßigter Demokrat ist.

Mit computergenerierten Fotos richtete sie Accounts bei Instagram, Facebook, Twitter, YouTube und TikTok ein. Die Konten sind passiv, was bedeutet, dass ihre „Leute“ keine Freunde haben oder öffentliche Kommentare abgeben.

Spring, der fünf verschiedene Telefone verwendet, die mit jedem Namen gekennzeichnet sind, pflegt die Konten, um ihre „Persönlichkeiten“ auszufüllen. Emma zum Beispiel ist eine Lesbe, die LGBTQ-Gruppen folgt, Atheistin ist, sich aktiv für Frauenthemen und Abtreibungsrechte interessiert, die Legalisierung von Marihuana unterstützt und The New York Times und NPR folgt.

Diese „Eigenschaften“ sind im Wesentlichen der Köder, um zu sehen, wie die Algorithmen der Social-Media-Unternehmen eingreifen und welches Material ihnen zugesandt wird.

Durch das, was ihr folgte und was ihr gefiel, wurde Britney als Impfgegnerin und Kritikerin des Big Business entlarvt, also wurde sie in mehrere Kaninchenlöcher geschickt, sagte Spring. Der Account hat Material, teilweise mit gewalttätiger Rhetorik, von Gruppen erhalten, die fälschlicherweise behaupten, Donald Trump habe die Wahlen 2020 gewonnen. Sie wurde auch eingeladen, sich Leuten anzuschließen, die behaupten, die Razzia in Mar-a-Lago sei ein „Beweis“ dafür gewesen, dass Trump gewonnen hat und der Staat hinter ihm her war, und Gruppen, die den Verschwörungstheoretiker Alex Jones unterstützen.

Trotz der Bemühungen von Social-Media-Unternehmen, Desinformation zu bekämpfen, sagte Spring, dass immer noch eine beträchtliche Menge durchkommt, hauptsächlich aus einer rechtsextremen Perspektive.

Gabriela, die neutrale Latina-Mutter, die sich hauptsächlich für Musik, Mode und Geldsparen beim Einkaufen interessiert, folgt keinen politischen Gruppen. Aber es ist viel wahrscheinlicher, dass republikanisch ausgerichtetes Material in ihrem Feed auftaucht.

„Das Beste, was Sie tun können, ist zu verstehen, wie das funktioniert“, sagte Spring. “Es macht uns bewusster, wie wir angegriffen werden.”

Die meisten großen Social-Media-Unternehmen verbieten Imitator-Accounts. Zuwiderhandlungen können für deren Erstellung gekickt werden, obwohl viele die Regeln umgehen.

Journalisten haben verschiedene Ansätze verwendet, um zu untersuchen, wie die Technologiegiganten arbeiten. Für eine Geschichte im vergangenen Jahr das Wall Street Journal erstellt mehr als 100 automatisiert Konten, um zu sehen, wie TikTok Benutzer in verschiedene Richtungen gelenkt hat. Die gemeinnützige Nachrichtenredaktion Markup ein Panel einrichten von 1.200 Personen, die zugestimmt haben, ihre Webbrowser auf Einzelheiten zur Funktionsweise von Facebook und YouTube untersuchen zu lassen.

„Meine Aufgabe ist es, Fehlinformationen zu untersuchen, und ich richte gefälschte Konten ein“, sagte Spring. „Die Ironie entgeht mir nicht.“

Sie ist offensichtlich kreativ, sagte Aly Colon, Professorin für Journalismusethik an der Washington & Lee University. Aber was Spring ironisch nannte, stört ihn und andere Experten, die glauben, dass es anständige Möglichkeiten gibt, über dieses Problem zu berichten.

„Durch die Schaffung dieser falschen Identitäten verstößt sie gegen einen meiner Meinung nach ziemlich klaren ethischen Standard im Journalismus“, sagte Bob Steele, pensionierter Ethikexperte des Poynter Institute. „Wir sollten nicht so tun, als wären wir jemand anderes als wir selbst, mit sehr wenigen Ausnahmen.“

Spring sagte, sie glaube, dass das öffentliche Interesse an der Funktionsweise dieser Social-Media-Unternehmen die damit verbundene Täuschung überwiege.

Die BBC sagte, die Untersuchung sei in Übereinstimmung mit ihren strengen redaktionellen Richtlinien erstellt worden.

„Wir nehmen Ethik sehr ernst und es gibt zahlreiche Prozesse, um sicherzustellen, dass unsere Aktivitäten niemanden beeinträchtigen“, sagte das Netzwerk. „Unsere Berichterstattung ist transparent und stellt klar fest, dass die Untersuchung keinen umfassenden Einblick in das bietet, was jeder US-Wähler in den sozialen Medien sehen könnte, sondern stattdessen eine Momentaufnahme der wichtigen Probleme im Zusammenhang mit der Verbreitung von Online-Desinformationen bietet.“

Das BBC-Experiment kann wertvoll sein, zeigt aber nur einen Teil der Funktionsweise von Algorithmen, ein Rätsel, das Menschen außerhalb der Technologieunternehmen weitgehend entgeht, sagte Samuel Woolley, Direktor des Propaganda-Forschungslabors der BBC Zentrum für Medienengagement an der Universität von Texas.

Algorithmen nehmen auch Hinweise auf Kommentare, die Menschen in sozialen Medien oder in ihren Interaktionen mit Freunden machen – beides Dinge, die die falschen Amerikaner der BBC nicht tun, sagte er.

„Es ist wie die journalistische Version eines Feldexperiments“, sagte Woolley. “Es läuft ein Experiment auf einem System ab, aber es ist ziemlich begrenzt in seiner Strenge.”

Aus Springs Sicht muss man, wenn man sehen will, wie eine Beeinflussungsoperation funktioniert, „an vorderster Front stehen“.

Seit dem Start der fünf Konten, sagte Spring, logge sie sich alle paar Tage ein, um jeden von ihnen zu aktualisieren und zu sehen, was sie gefüttert werden.

„Ich versuche, es so realistisch wie möglich zu machen“, sagt sie. „Ich habe diese fünf Persönlichkeiten, die ich zu jeder Zeit bewohnen muss.“

source-123

Leave a Reply