Laut Studie zeigt TikTok Teenagern schädliche Inhalte innerhalb von Minuten


Als ob Elternschaft nicht schon schwer genug wäre, gibt es hier noch eine Sache, über die man sich Sorgen machen muss. Wenn Ihre Teenager TikTok beitreten, könnten ihnen laut einem am Mittwoch veröffentlichten Bericht innerhalb von Minuten schädliche Inhalte über Selbstverletzung, Selbstmordgedanken und Essstörungen zugestellt werden.

Forscher, die für das Center for Countering Digital Hate arbeiten, gaben sich als 13-Jährige aus, die neue Konten auf der Plattform einrichteten, und sie zeichneten die ersten 30 Minuten des Inhalts der For You-Seite von TikTok auf – ein Home-Feed, der schnell lernt und sich an Ihren anpasst Inhaltspräferenzen – ihnen serviert.

Einem neuen Konto wurden Inhalte im Zusammenhang mit Selbstmord innerhalb von 2,6 Minuten zugestellt, während einem anderen innerhalb von acht Minuten Inhalte zu Essstörungen zugestellt wurden, sagten die Forscher. Im Durchschnitt wurden ihnen alle 39 Sekunden Inhalte zu psychischer Gesundheit und Körperbild präsentiert, sagten sie in der Studie, die nicht von Experten begutachtet wurde.

„Eltern machen sich Sorgen darüber, mit wem ihre Kinder Zeit verbringen, welche Art von Dingen sie hören, aber aufgrund dieser Apps, auf die sie keinen Einblick haben, könnte es eigentlich jeder sein“, sagte CCDH-CEO Imran Ahmed Journalisten während einer Unterrichtung am Dienstag. „Ehrlich gesagt ist es aufgrund der Funktionsweise dieser Algorithmen eine schreckliche Idee, TikTok auf Ihre Kinder aufpassen zu lassen.“

Beim Einrichten der Konten interagierten die Forscher mit allen schädlichen Inhalten, auf die sie stießen, indem sie alle Videos mit „Gefällt mir“ markierten, die Inhalte im Zusammenhang mit Selbstverletzung, Essstörungen oder Selbstmord enthielten. Dies zeigte dem Algorithmus von TikTok, dass dies Themen waren, an denen der Benutzer interessiert war.

In einer Erklärung sagte ein Sprecher von TikTok, dass die Aktivitäten der Forscher und die daraus resultierenden Erfahrungen „kein echtes Verhalten oder Seherlebnisse von echten Menschen widerspiegeln“.

Das Unternehmen entfernt alle im Bericht hervorgehobenen Inhalte, die gegen seine Community-Richtlinien verstoßen. TikTok verbietet alle Inhalte, die Aktivitäten darstellen, fördern, normalisieren oder verherrlichen, die zu Selbstverletzungen führen könnten, sowie Inhalte, die Essverhalten oder -gewohnheiten fördern, die wahrscheinlich gesundheitsschädliche Folgen haben.

Wachsende Kontrolle für TikTok

Die Popularität von TikTok, insbesondere bei Teenagern, ist in den letzten Jahren sprunghaft angestiegen, und die Plattform hat laut data.ai-Analytics jetzt 111 Millionen monatlich aktive Benutzer in den USA. Aber sein Erfolg hat auch die Aufmerksamkeit von Kindersicherheitsspezialisten, Gesetzgebern und Aufsichtsbehörden auf sich gezogen.

Am Dienstag drei Mitglieder des Kongresses einen Gesetzentwurf eingebracht das würde die in chinesischem Besitz befindliche Plattform in den USA aufgrund von Bedenken hinsichtlich Spionage und Propaganda verbieten. Die von der CCDH veröffentlichte Studie hebt zusätzliche Sicherheitsbedenken rund um die Plattform hervor, von denen viele Probleme betreffen, die von mehreren Social-Media-Sites geteilt werden.

Die Recherche zu TikTok erfolgt etwas mehr als ein Jahr, nachdem die Meta-Whistleblowerin Frances Haugen enthüllte, dass Metas eigene interne Recherche gezeigt hatte, dass Instagram einen hatte negative Auswirkungen auf die psychische Gesundheit von Jugendlichen, besonders Mädchen mit Essstörungen. Als Ergebnis der Enthüllungen, Meta eine Reihe von Änderungen vorgenommen auf die Plattform, einschließlich der Einführung stärkerer Kindersicherungen und der Verdrängung von Teenagern von Inhalten, die ihr Wohlbefinden möglicherweise nicht fördern.

Die CCDH sagte, sie habe die gleiche Methodik verwendet, um ihre Forschung zu TikTok durchzuführen, wie Meta sie in ihren eigenen internen Studien verwendet habe (obwohl zu beachten ist, dass die beiden Plattformen sehr unterschiedliche Algorithmen für die Empfehlung von Inhalten haben).

Die Forscher richteten insgesamt acht Konten ein (eine zugegebenermaßen kleine Stichprobengröße) – zwei in den USA, zwei in Großbritannien, zwei in Kanada und zwei in Australien. Die Hälfte hatte generische Benutzernamen und die andere Hälfte hatte Benutzernamen, die „loseweight“ im Benutzernamen enthielten. Damit sollte geprüft werden, ob TikTok jungen Menschen, die sich als an Gewichtsabnahme interessiert identifizierten, unterschiedliche Inhalte anbieten würde.

Sie entdeckten, dass diesen „gefährdeten“ Konten dreimal mehr schädliche Inhalte als den Standardkonten und 12-mal so viele Selbstverletzungs- und Selbstmordvideos bereitgestellt wurden. „Was wir wirklich besorgniserregend fanden, ist, dass TikTok Schwachstellen erkennt“, sagte Ahmed.

Schutz der Schwachen

Im Laufe seiner Recherchen gab die CCDH an, Inhalte mit Essstörungen mit insgesamt mehr als 13,2 Milliarden Aufrufen gefunden zu haben. Die Leute verwendeten oft codierte Hashtags, um „Pro-Ana“- oder „Thinspiration“-Inhalte (d. h. Inhalte, die Anorexie fördern) zu posten, während sie die Filter von TikTok umgingen, einschließlich der Kooptierung des Namens des Sängers Ed Sheeran.

Mit den sich entwickelnden Schlüsselwörtern Schritt zu halten, die Menschen verwenden, um seinen Inhaltsfiltern auszuweichen, ist eine nie endende Herausforderung für TikTok, und wenn es sie findet, leitet es jeden, der darauf klickt, zu Essstörungs-Hotlines und Wohltätigkeitsorganisationen weiter. Im Zeitraum zwischen April und Juni, sagte das Unternehmen, wurden 75,2 % der von ihm identifizierten problematischen Essstörungsvideos ohne Aufrufe entfernt, 82,5 % wurden innerhalb von 24 Stunden nach der Veröffentlichung entfernt und 86,7 % wurden entfernt, bevor eine Meldung erfolgte.

TikTok räumte ein, dass es nicht jeden Inhalt erfasst, der gegen seine Richtlinien verstößt, sagte jedoch, dass es kontinuierlich in die Verbesserung des Vertrauens und der Sicherheit investiert, und fügte hinzu, dass derzeit 40.000 Menschen daran arbeiten, die Plattform sicher zu halten.

„Wir konsultieren regelmäßig Gesundheitsexperten, beseitigen Verstöße gegen unsere Richtlinien und bieten allen Bedürftigen Zugang zu unterstützenden Ressourcen“, sagte der Unternehmenssprecher. „Wir sind uns bewusst, dass das Auslösen von Inhalten für jeden Einzelnen einzigartig ist, und konzentrieren uns weiterhin darauf, einen sicheren und komfortablen Raum für alle zu schaffen, einschließlich Menschen, die sich dafür entscheiden, ihre Genesungsreisen zu teilen oder andere über diese wichtigen Themen aufzuklären.“

source-110

Leave a Reply