TikTok steckt in einer Desinformationskrise. Oder doch?


Regulierungsbehörden in der EU schickten am Donnerstag Briefe an Meta, TikTok und X/Twitter und gaben den Plattformen 24 Stunden Zeit, um Fehlinformationen und andere „illegale“ Inhalte im Zusammenhang mit dem Israel-Hamas-Krieg zu beheben. Es ist jedoch schwierig, genau zu sagen, was auf diesen Plattformen passiert, insbesondere wenn es um den algorithmisch definierten Endlos-Scroll von TikTok geht. Im krassen Gegensatz zu den Beschwerden der EU kommt eine neue Studie, die zu einem völlig anderen Ergebnis kommt: Auf TikTok gibt es ohnehin kaum Nachrichteninhalte, und der Algorithmus vermeidet die spärlichen Nachrichten, die er zu bieten hat.

Fast unmittelbar nach dem Hamas-Angriffe in Israel Am Wochenende war X zumindest objektiv überschwemmt mit Lügen über den Krieg. Die Armee blaukarierter Nutzer der Plattform veröffentlichte Videos von alten Konflikten, Aufnahmen aus anderen Teilen der Welt und sogar Ausschnitte aus Videospielen, die als Berichterstattung aus erster Hand aus den Straßen von Gaza getarnt wurden – und das alles wurde dank der algorithmischen Verstärkung beworben kommt mit einem verifizierten Konto. Die europäischen Regulierungsbehörden reagierten schnell. EU-Kommissar Thierry Breton schickte Elon Musk einen Briefbeschuldigte das Unternehmen, gegen das Gesetz über digitale Dienste verstoßen zu haben, und forderte Maßnahmen innerhalb eines Tages.

Einen Tag später schickte Breton ähnliche Briefe an Meta und TikTok. „TikTok hat eine besondere Verpflichtung, Kinder und Jugendliche vor gewalttätigen Inhalten und terroristischer Propaganda zu schützen – sowie vor Todesherausforderungen und potenziell lebensbedrohlichen Inhalten“, sagte Breton in einem Social-Media-Beitrag über den Brief.

TikTok erkennt einen Funken gefährlicher oder zumindest nicht hilfreicher Inhalte auf seiner Plattform und hat seine Ressourcen zur Bekämpfung gewalttätiger, hasserfüllter oder irreführender Inhalte aufgestockt, sagte ein Sprecher. Das Unternehmen gibt an, über eine eigene Armee von 40.000 „Sicherheitsexperten“ zu verfügen, die Inhalte auf TikTok überprüfen, und arbeitet mit dem International Fact Checking Network zusammen, um falsche Behauptungen zu bekämpfen.

In den sozialen Medien wimmelt es von Fehlinformationen, und TikTok bildet da keine Ausnahme, doch Art und Ausmaß des Problems sind schwer einzuschätzen. Ein aktuelles Beispiel ist die Auseinandersetzung zwischen Bretons Vorwürfen und a neue Studie veröffentlicht in der Zeitschrift New Media & Society. Die Studie ergab, dass der Algorithmus von TikTok überraschend zögerlich ist, Nachrichteninhalte bereitzustellen. „Wir finden fast keine Hinweise auf eine proaktive Nachrichtenübermittlung seitens TikTok“, sagten die Forscher.

Die Studie dokumentierte unter anderem die Konten, die TikTok neuen Nutzern empfiehlt. Die Forscher stellten außerdem ein Team aus 60 TikTok-Scrollrobotern zusammen, die darauf trainiert sind, Videos anzusehen oder zu überspringen, je nachdem, ob sich ihr Inhalt mit Schlagzeilen der New York Times überschneidet. Die Ergebnisse waren atemberaubend. Von 6.568 Videos qualifizierten nur 6 gemäß den Parametern der Studie als Nachrichten. Und von 10.000 empfohlenen Accounts bezogen sich nur 18 % auf Nachrichteninhalte.

Im Vergleich dazu ließen die Forscher die Roboter mit derselben Methode Interesse an Fußball zeigen und stellten fest, dass die Empfehlungen in 88 % der Fälle fußballbezogen waren.

Es gibt viele mögliche Erklärungen. Die Forscher stellten fest, dass es sein könnte, dass Nachrichtenverleger die Plattform nicht angenommen haben und es daher nicht genügend Nachrichteninhalte gibt, um den Feed zu sättigen. Es sei der Studie zufolge auch möglich, dass der Algorithmus „Nachrichten“ nicht als zusammenhängendes, für Nutzer interessantes Thema erkenne, so dass die Versuche der Roboter, ihr Interesse an Nachrichten zu demonstrieren, von Anfang an zum Scheitern verurteilt gewesen sein könnten.

Laut Nicholas Diakopoulos, Professor an der Northwestern University und einer der Autoren der Studie, könnte die Diskrepanz auch auf Definitionen zurückzuführen sein. „Unsere Definition von gemessenen Nachrichten unterscheidet sich möglicherweise von der Definition, die viele normale Leute als ‚Nachrichten‘ definieren“, teilte Diakopoulos Gizmodo per E-Mail mit. EU-Kommissar Breton antwortete nicht sofort auf eine Bitte um Stellungnahme.

Laut einem Unternehmenssprecher sagte TikTok seinerseits, dass seine „Für Sie“-Seite, der primäre Feed der App, auf die einzelnen Benutzer zugeschnitten sei und Nachrichten wie alle anderen Inhalte behandle. Der Sprecher zitierte verifizierte Nachrichtenorganisationen mit Hunderttausenden oder sogar Millionen Followern, darunter NPR, das Wall Street Journal und USA Today.

Dennoch ist die Studie überraschend, wenn man bedenkt, dass ein Drittel der erwachsenen TikTok-Nutzer in einem aktuellen Umfrage des Pew Research Center sagte, dass sie ihre Neuigkeiten regelmäßig auf TikTok erhalten. Abgesehen von Umfragen ist TikTok für Fehlinformationen zu einer Vielzahl von Themen bekannt, darunter auch Nachrichten.

Das eigentliche Problem besteht darin, wie schwierig es ist, sich ein klares Bild von einer algorithmisch zugeschnittenen Plattform mit Millionen oder sogar Milliarden Nutzern zu machen. In der Vergangenheit boten Social-Media-Unternehmen Forschern freien Zugang zum Studium ihrer Plattformen (mit gewissen Einschränkungen). Wir haben durch Leaks und Gerichtsverfahren auch viel über Facebook und Twitter gelernt, während Datenwissenschaftler im Dunkeln tappten und Fortschritte bei den Methoden zur Bewertung dieser Plattformen machten. Das beginnt sich zu ändern. Elon Musk hat diese Privilegien widerrufen bei X, und TikTok gewährt nur einer begrenzten Anzahl zugelassener Forscher Zugang zur Untersuchung seiner internen Daten.

Die Social-Media-Giganten wehren sich gegen die Forderungen der EU. „X bewertet und bekämpft identifizierte gefälschte und manipulierte Inhalte in dieser sich ständig weiterentwickelnden und sich ständig verändernden Krise angemessen und effektiv“, sagte Linda Yaccarino, CEO von X, in einem Brief an Bretonam Donnerstag auf X gepostet.

Meta-Sprecher Ben Walters teilte mit ein Blogbeitrag mit Gizmodo als Antwort auf Fragen, in denen er die Reaktion des Unternehmens auf den Israel-Hamas-Konflikt detailliert darlegte. Meta gab an, in den Tagen nach den Anschlägen vom 7. Oktober 795.000 „beunruhigende“ Inhalte entfernt zu haben.

In vielerlei Hinsicht sind die Regulierungsbehörden den Technologieunternehmen ausgeliefert und verlassen sich zu einem großen Teil auf deren selbst gemeldete Bemühungen, Probleme wie Fehlinformationen oder koordinierte illegale Aktivitäten einzudämmen, wobei ihnen nur wenige zuverlässige Methoden zur Überprüfung der Behauptungen der Branche zur Verfügung stehen. Gibt es ein Fehlinformationsproblem bei TikTok? Absolut. Wenn Sie jedoch nicht im Unternehmen arbeiten, ist die einzige Möglichkeit, die wahren Hintergründe des Problems zu verstehen, ein langsamer, methodischer Blick zurück, lange nachdem sich der Inhalt unter den Nutzern der App verbreitet und festgesetzt hat.



source-113

Leave a Reply