Laut einer Studie verbreiten TikTok und YouTube Shorts frauenfeindliche Videos bei jungen männlichen Zuschauern


Eine neue Studie untersuchte, wie lange es dauerte, bis TikTok und YouTube Shorts frauenfeindliche Inhalte auf den Accounts junger Männer empfahlen.

WERBUNG

Laut einer neuen Studie dauert es im Durchschnitt 23 bis 26 Minuten, bis TikTok und YouTube Shorts giftige oder frauenfeindliche Inhalte auf den Konten junger Männer empfehlen.

Die Studie der Dublin City University verfolgte die empfohlenen Inhalte für 10 „Sockpuppet“-TikTok- und YouTube-Short-Konten, die von den Forschern auf neuen Smartphones erstellt wurden.

Die Konten waren alle darauf ausgerichtet, die Suchinteressen von 16- und 18-jährigen Jungen entweder mit regulären Inhalten wie Sport oder Videospielen anzuzeigen oder solche zu reproduzieren, die absichtlich online nach frauenfeindlichen Inhalten suchen.

Die Untersuchung ergab, dass die Algorithmen beim Ansehen von Videos auf TikTok und YouTube Shorts etwa 23 Minuten brauchten, um „toxische“ Inhalte zu empfehlen, und 26 Minuten, um „Manfluencer“-Inhalte (männliche Influencer) über die verschiedenen Konten hinweg zu empfehlen.

Bei Accounts, die ein gewisses Interesse daran zeigten, mehr über Manfluencer zu erfahren, konnten die empfohlenen Videos manchmal bereits nach zwei Minuten Ansehen auf YouTube Shorts und zehn Minuten auf TikTok erscheinen – Videos, die weithin als Werbung für Alphamännchen und antifeministische Ideen angesehen werden.

„Die Ergebnisse dieses Berichts weisen auf dringende und besorgniserregende Probleme für Eltern, Lehrer, politische Entscheidungsträger und die Gesellschaft als Ganzes hin“, heißt es in dem Bericht.

„Monetarisierung männlicher Unsicherheit“

Die Forscher sahen sich fast 29 Stunden Video der zehn Konten an, um den Inhalt der empfohlenen Videos zu analysieren.

Die überwiegende Mehrheit der Inhalte, die nach zwei bis drei Stunden oder 400 Videowiedergaben vorgeschlagen wurden, war den Forschern zufolge problematisch oder giftig.

Sobald ein Manfluencer-Video empfohlen und dann von dem jungen männlichen Account angesehen wurde, stieg die Wahrscheinlichkeit, dass es weiterempfohlen wurde, um ein Vielfaches.

Der Bericht identifizierte drei Hauptthemen dieser Manfluencer-Videos: Krisennarrative wie Männlichkeit und die „Kernfamilie“ sind bedroht; Motivationsvideos, die Männer davon überzeugen, dass Gefühle oder Depressionen entmannend sein können; oder entlarvte Videos zur Geschlechterwissenschaft, die Konzepte aus der Evolutionspsychologie zeigen, dass Männer und Frauen für unterschiedliche Geschlechterrollen „fest verdrahtet“ sind.

Die Studie legt nahe, dass es auch einen Zusammenhang zwischen Manfluencer-Videos und rechten Verschwörungsinhalten gibt: 13 Prozent aller empfohlenen Inhalte auf TikTok und fünf Prozent auf YouTube für diese Accounts enthielten diese Konzepte.

„Diese Monetarisierung männlicher Unsicherheit dient nicht nur der Verbreitung der antifeministischen und anti-LGBTQ-Ideologie, sondern könnte auch als Einfallstor für rechtsextreme und andere extreme Weltanschauungen dienen“, heißt es in dem Bericht.

Eine der Einschränkungen ihrer Studie, so der Bericht weiter, sei die mangelnde Transparenz seitens Social-Media-Unternehmen über die Funktionsweise ihrer Algorithmen.

Das bedeutet, dass ihnen wichtige Informationen darüber fehlen, wie die Plattformen basierend auf ihrem bisherigen Sehverlauf personalisierte Inhaltsvorschläge erstellen.

Studie spiegelt nicht die Benutzererfahrung von TikTok wider

YouTube Shorts war mit etwa 61 Prozent die Plattform, die den höchsten Anteil an „toxischen Inhalten“ verbreitete, verglichen mit 34 Prozent der TikTok-Empfehlungen.

Die Plattform versorgte Manfluencer-neugierige Accounts außerdem mit mehr toxischen Inhalten als Accounts, die nach „allgemeinen“ Themen suchten.

„Hassreden, Belästigung und Cybermobbing sind auf YouTube nicht erlaubt“, sagte ein Sprecher gegenüber Euronews Next in einer per E-Mail versandten Erklärung.

„Wir haben in diesen Bereichen strenge Inhaltsrichtlinien, die wir mithilfe einer Kombination aus menschlichen Prüfern und maschineller Lerntechnologie strikt durchsetzen.“

WERBUNG

YouTube sagte, es habe den Kanal des Manfluencers Andrew Tate im Jahr 2022 wegen Verstoßes gegen seine Richtlinien geschlossen und schließt weiterhin Konten, die seine Inhalte auf die Plattform hochladen.

Tate wurde im März in Rumänien festgenommen und wegen Mitgliedschaft in einer organisierten Kriminalitätsgruppe, Menschenhandel und Vergewaltigung angeklagt.

„Wir expandieren weiter und investieren in die Richtlinien und Systeme, die zum Schutz unserer Zuschauer erforderlich sind“, endete die Erklärung.

TikTok sagte in einer per E-Mail verschickten Erklärung, dass der Bericht der Dublin City University nicht widerspiegele, wie ihre Nutzerbasis Videos auf ihrer Plattform erleben würde. In der Erklärung wurde außerdem darauf hingewiesen, dass die Stichprobengröße in der Studie sowohl hinsichtlich der Anzahl der verwendeten Konten als auch der Menge der angesehenen Videos äußerst begrenzt ist.

Sie sagen, dass giftige Inhalte 34,7 Prozent dessen ausmachen, was Benutzer in ihren Feeds sehen würden.

WERBUNG

TikTok sagt außerdem, dass sie keine Hassreden oder hasserfüllten Diskurse wie Frauenfeindlichkeit und Transphobie auf ihrer Plattform zulassen und Inhalte entfernen, die gegen ihre Community-Richtlinien verstoßen.

„Wenn uns bekannt wird, dass sich ein solcher Akteur möglicherweise auf unserer Plattform aufhält, werden wir eine gründliche Überprüfung durchführen – einschließlich des Verhaltens außerhalb der Plattform –, was zu einer Kontosperre führen kann“, heißt es auf der Website mit den Community-Richtlinien von TikTok.

Das Unternehmen sagt, dass es dasselbe mit seinen empfohlenen Videos im „Für Sie“-Feed macht, wobei das Empfehlungssystem weniger ähnliche Inhalte in den Feed einer Person einfügt, wenn sie der Meinung ist, dass zwei Videos etwas zu ähnlich sind.

Benutzer können das, was sie sehen, auch kuratieren, indem sie feststellen, dass ein Videotyp sie nicht interessiert, indem sie ihre Feeds aktualisieren oder bestimmte Schlüsselwörter herausfiltern.

TikTok ist derzeit unter zwei Ermittlungen gemäß dem EU-Gesetz über digitale Dienste, das sich mit „Jugendschutz“ und „süchtig machendem Design“ für das neue TikTok Lite der Plattform befasst, das kürzlich in Frankreich und Spanien eingeführt wurde.

WERBUNG

Im vergangenen November wurde YouTube von der Europäischen Kommission aufgefordert, Informationen darüber bereitzustellen, wie sie Minderjährige im Internet im Rahmen des neuen Gesetzes über digitale Dienste schützt.

Kontobasierte Inhaltsmoderation erforderlich

Der Bericht hebt einige wichtige Empfehlungen für Schulen, Eltern und Social-Media-Unternehmen hervor.

Daraus geht hervor, dass Social-Media-Unternehmen nicht nur die Inhalte auf Grundlage der Videos moderieren, sondern auch regulieren, welche Konten Beiträge posten dürfen.

Irland hat eine neue Medienregulierungsbehörde namens Coimisiún na Meán, mit der Social-Media-Unternehmen dem Bericht zufolge zusammenarbeiten, um „illegale, schädliche und grenzwertige Inhalte hervorzuheben“.

Für Schulen schlägt der Bericht vor, dass die Förderung positiver männlicher Vorbilder im Klassenzimmer Vorrang haben sollte, um „eine erzieherische und nicht eine strafende Reaktion auf das Verhalten von Jungen zu fördern“. Außerdem wird empfohlen, dass sich Schulen auf die Förderung wichtiger digitaler Kompetenzen konzentrieren.

WERBUNG

Eltern könnten auch Gespräche mit ihren Teenagern eröffnen, um zu verstehen, warum sie bestimmte Influencer idealisieren, und sie ermutigen, „sich mit relevanten Ressourcen auseinanderzusetzen“.

TikTok sagte in seiner Erklärung, dass sie über elterliche Ressourcen verfügen, um bei diesen Gesprächen zu helfen.

Diese Geschichte wurde aktualisiert und enthält nun eine Aussage von YouTube.

source-121

Leave a Reply