YouTube-Empfehlungen zeigen laut Studie gewalttätige und anschauliche Waffenvideos an Neunjährige


WASHINGTON (AP) – Als Forscher einer gemeinnützigen Organisation, die sich mit sozialen Medien befasst, den Zusammenhang zwischen YouTube-Videos und Waffengewalt verstehen wollten, richteten sie auf der Plattform Konten ein, die das Verhalten typischer in den USA lebender Jungen nachahmten

Sie simulierten zwei Neunjährige, die beide Videospiele mochten, insbesondere Ego-Shooter-Spiele. Die Konten waren identisch, nur dass einer auf die von YouTube empfohlenen Videos klickte und der andere die Vorschläge der Plattform ignorierte.

Der Account, der auf die Vorschläge von YouTube klickte, wurde bald mit anschaulichen Videos über Schießereien in der Schule, Videos zum taktischen Waffentraining und Anleitungen zum vollautomatischen Herstellen von Schusswaffen überschwemmt. In einem Video war ein Mädchen im Grundschulalter zu sehen, das eine Pistole trug. Ein anderer zeigte einen Schützen, der mit einer Waffe vom Kaliber .50 auf einen Kunstkopf feuerte, der mit lebensechtem Blut und Gehirn gefüllt war. Viele der Videos verstoßen gegen die YouTube-eigenen Richtlinien gegen gewalttätige oder blutige Inhalte.

Die Ergebnisse zeigen, dass es der Plattform trotz der Regeln und Bemühungen zur Inhaltsmoderation von YouTube nicht gelingt, die Verbreitung erschreckender Videos zu stoppen, die schutzbedürftige Kinder traumatisieren oder sie auf dunkle Pfade des Extremismus und der Gewalt schicken könnten.

„Videospiele gehören zu den beliebtesten Aktivitäten für Kinder. Man kann ein Spiel wie „Call of Duty“ spielen, ohne in einem Waffengeschäft zu landen – aber YouTube bringt sie dorthin“, sagte Katie Paul, Direktorin des Tech Transparency Project, der Forschungsgruppe, die das tut veröffentlichte seine Ergebnisse über YouTube am Dienstag. „Es sind nicht die Videospiele, es sind nicht die Kinder. Es sind die Algorithmen.“

Die Konten, die den von YouTube vorgeschlagenen Videos folgten, erhielten in einem einzigen Monat 382 verschiedene Videos zum Thema Schusswaffen, also etwa 12 pro Tag. Die Konten, die die YouTube-Empfehlungen ignorierten, erhielten immer noch einige Videos mit Waffenbezug, insgesamt jedoch nur 34.

Die Forscher erstellten auch Konten, die 14-jährige Jungen nachahmten, die Videospiele mochten; Diese Konten enthielten auch ähnliche Inhalte mit Waffen- und Gewaltbezug.

Eines der für die Accounts empfohlenen Videos trug den Titel „How a Switch Works on a Glock (Nur für Bildungszwecke)“. YouTube entfernte das Video später, nachdem festgestellt wurde, dass es gegen seine Regeln verstieß. zwei Wochen später tauchte ein fast identisches Video mit leicht geändertem Namen auf; Dieses Video bleibt verfügbar.

Nachrichten mit der Bitte um einen Kommentar von YouTube wurden am Dienstag nicht sofort zurückgesendet. Führungskräfte der Plattform, die Google gehört, sagten, dass die Identifizierung und Entfernung schädlicher Inhalte sowie der Schutz ihrer jüngsten Nutzer Priorität haben. Youtube erfordert Benutzer unter 17 Jahren müssen die Erlaubnis ihrer Eltern einholen, bevor sie ihre Website nutzen. Konten für Benutzer unter 13 Jahren sind mit dem Elternkonto verknüpft.

Die Video-Sharing-Plattform ist neben TikTok eine der beliebtesten Seiten für Kinder und Jugendliche. Beide Seiten wurden kritisiert in der Vergangenheit für das Hosten und in einigen Fällen für die Werbung für Videos, die zu Waffengewalt und Essstörungen aufrufen und Selbstverletzung. Kritiker sozialer Medien haben auch auf die Zusammenhänge zwischen sozialen Medien, Radikalisierung und Gewalt in der realen Welt hingewiesen.

Die Täter hinter vielen Massenerschießungen der letzten Zeit haben soziale Medien genutzt und Video-Streaming Plattformen zur Verherrlichung von Gewalt oder sogar Livestream ihre Angriffe. In Beiträgen auf YouTubeder Schütze hinter dem Angriff auf einen Angriff auf eine Schule in Parkland, Florida, im Jahr 2018, bei dem 17 Menschen getötet wurden, schrieb: „Ich möchte Menschen töten“, „Ich werde ein professioneller Schulschütze sein“ und „Ich habe kein Problem damit, einen zu erschießen.“ Mädchen in der Brust.“

Der Neonazi-Schütze der Anfang dieses Monats acht Menschen in einem Einkaufszentrum im Raum Dallas tötete, hatte auch einen YouTube-Account, der Videos über den Zusammenbau von Gewehren enthielt, die Serie tötete Jeffrey Dahmer und einen Ausschnitt aus einer Schießerei in einer Schule in einer Fernsehsendung.

In einigen Fällen hat YouTube einige der von Forschern des Tech Transparency Project identifizierten Videos bereits entfernt, in anderen Fällen bleiben die Inhalte jedoch weiterhin verfügbar. Viele große Technologieunternehmen verlassen sich auf automatisierte Systeme, um Inhalte zu kennzeichnen und zu entfernen, die gegen ihre Regeln verstoßen. Paul sagte jedoch, die Ergebnisse des Projektberichts zeigten, dass größere Investitionen in die Moderation von Inhalten erforderlich seien.

In Ermangelung einer Bundesregulierung können Social-Media-Unternehmen junge Nutzer mit potenziell schädlichen Inhalten ansprechen, die darauf ausgelegt sind, sie dazu zu bringen, wiederzukommen, um mehr zu erfahren, sagte Shelby Knox, Kampagnenleiter der Interessenvertretung Parents Together. Knox‘ Gruppe hat Plattformen wie YouTube, Instagram und TikTok dafür geworben, dass sie es Kindern und Jugendlichen leicht machen, Inhalte über Selbstmord, Waffen, Gewalt und Drogen zu finden.

„Big-Tech-Plattformen wie TikTok haben immer wieder ihre Gewinne, ihre Aktionäre und ihre Unternehmen über die Gesundheit, Sicherheit und sogar das Leben von Kindern gestellt“, sagte Knox als Antwort auf a Bericht Anfang des Jahres veröffentlichtes Video, aus dem hervorging, dass TikTok Jugendlichen schädliche Inhalte empfahl.

TikTok hat seine Website und ihre Richtlinien verteidigt, die Nutzer unter 13 Jahren verbieten. Seine Regeln verbieten auch Videos, die schädliches Verhalten fördern; Benutzer, die nach Inhalten zu Themen wie Essstörungen suchen, erhalten automatisch eine Aufforderung mit Ressourcen zur psychischen Gesundheit.

source-123

Leave a Reply