Die Clips-Funktion von Twitch hat Berichten zufolge dafür gesorgt, dass Kindesmissbrauch auf der Plattform brodelt


Eine Untersuchung Bericht aus Bloomberg zeichnet ein beunruhigendes Bild von Twitchs Schwierigkeiten bei der Moderation der Livestreaming-Plattform – insbesondere seiner Clips-Funktion, die es Benutzern ermöglicht, kurze Videos zu speichern. Das Medium berichtet, dass es nach der Analyse von etwa 1.100 Clips mindestens 83 mit sexualisierten Inhalten gefunden habe, an denen Kinder beteiligt seien. Twitch entfernte die Videos, nachdem es alarmiert wurde, und ein Unternehmenssprecher schrieb in einer E-Mail an Engadget, dass das Unternehmen seitdem „stark in Durchsetzungsinstrumente und Präventivmaßnahmen investiert habe und dies auch weiterhin tun werde“.

Bloomberg hob einen Vorfall hervor, der das Problem mit der dauerhaften Natur von Clips auf der ansonsten vorübergehenden Plattform veranschaulichte. Es erzählt die beunruhigende Geschichte eines 12-jährigen Jungen, der letzten Frühling zu Twitch ging, „um ein Sandwich zu essen und sein Waldhorn zu spielen“. Bald begann er, Anfragen von Zuschauern entgegenzunehmen, was (in einer traurigen Widerspiegelung des Online-Verhaltens) irgendwie dazu führte, dass der Junge seine Hose herunterzog.

Die Verkaufsstelle beschreibt, dass der Vorfall „in einem Augenblick“ vorbei sei. Dennoch ermöglichte die Aufnahmefunktion von Clips einem Zuschauer – der angeblich über hundert Konten von Kindern verfolgte –, es zu speichern. Dies führte angeblich zu über 130 Aufrufen des 20-sekündigen Clips, bevor Twitch benachrichtigt und entfernt wurde.

Clips wurden 2016 eingeführt, um ansonsten kurzlebige Momente auf der Plattform festzuhalten. Die Funktion zeichnet 25 Sekunden vor (und fünf Sekunden nach) dem Tippen auf die Aufnahmetaste auf. Dies hat den unglücklichen Nebeneffekt, dass Raubtiere einen beunruhigenden Moment speichern und an anderer Stelle verteilen können.

Twitch hat geplant, Clips in diesem Jahr zu erweitern, um mehr TikTok-ähnliche Inhalte auf der Plattform zu produzieren. Es ist geplant, einen Discovery-Feed (ebenfalls ähnlich wie TikTok) zu starten, in dem Benutzer ihre kurzen Videos veröffentlichen können.

BloombergDer Bericht zitiert das Canadian Centre for Child Protection, das die 83 ausbeuterischen Videos überprüfte und zu dem Schluss kam, dass 34 junge Nutzer zeigten, wie sie ihre Genitalien vor der Kamera zeigten. Bei dem Großteil handelte es sich angeblich um Jungen im Alter zwischen fünf und zwölf Jahren. Weitere 49 Clips enthielten sexualisierte Inhalte, in denen Minderjährige „Körperteile freilegten oder Körperpflegemaßnahmen unterzogen wurden“.

Die Organisation gab an, dass die 34 „ungeheuerlichsten“ Videos 2.700 Mal angesehen wurden. Der Rest belief sich auf 7.300 Aufrufe.

Twitchs Antwort

„Jugendverletzungen überall im Internet sind inakzeptabel und wir nehmen dieses Problem äußerst ernst“, schrieb ein Twitch-Sprecher an Engadget. Als Reaktion auf die Warnung vor dem Material zum sexuellen Missbrauch von Kindern (CSAM) gab das Unternehmen an, dass es neue Modelle entwickelt habe, um potenzielles Grooming-Verhalten zu erkennen, und seine bestehenden Tools aktualisiert, um gesperrte Benutzer, die versuchen, neue Konten (auch für Jugendliche) zu erstellen, effektiver zu identifizieren und zu entfernen sicherheitsrelevante Fragen).

Twitch fügt hinzu, dass es die Durchsetzung von Livestreams, der Wurzel von Clips, durch seine Sicherheitsteams verstärkt hat. „Das heißt, wenn wir einen Livestream deaktivieren, der schädliche Inhalte enthält, und den Kanal sperren, weil Clips aus Livestreams erstellt werden, verhindern wir die Erstellung und Verbreitung schädlicher Clips an der Quelle“, schrieb das Unternehmen. „Wichtig ist, dass wir auch daran gearbeitet haben, sicherzustellen, dass Clips, die wir löschen und deaktivieren, wenn sie gegen unsere Community-Richtlinien verstoßen, nicht über öffentliche Domains oder andere direkte Links verfügbar sind.“

„Wir sind uns auch darüber im Klaren, dass sich Online-Schäden leider weiterentwickeln“, fuhr der Sprecher fort. „Wir haben die Richtlinien verbessert, die unsere internen Sicherheitsteams verwenden, um einige dieser sich entwickelnden Online-Schäden zu identifizieren, wie z. B. generatives KI-gestütztes Material zum sexuellen Kindesmissbrauch (Child Sexual Abuse Material, CSAM).“ Twitch fügte hinzu, dass es die Liste der externen Organisationen, mit denen es zusammenarbeitet, erweitert hat, um (hoffentlich) ähnliche Inhalte in Zukunft zu unterdrücken.

Moderationsprobleme bei Twitch

Bloomberg berichtet, dass Clips einer der am wenigsten moderierten Abschnitte auf Twitch waren. Es wird außerdem darauf hingewiesen, dass das Unternehmen im April 2023 15 Prozent seines internen Vertrauens- und Sicherheitsteams entlassen hat (Teil eines erschütternden Jahres mit Entlassungen im technischen Bereich) und bei der Unterdrückung von CSAM-Inhalten zunehmend auf externe Partner angewiesen ist.

Die auf Livestreams ausgerichtete Plattform von Twitch macht es zu einer schwierigeren Moderationsherausforderung als traditionellere Videoseiten wie YouTube oder Instagram. Diese Plattformen können hochgeladene Videos mit Hashes vergleichen – digitalen Fingerabdrücken, die zuvor bekannte problematische Dateien erkennen können, die online veröffentlicht wurden. „Hash-Technologie sucht nach etwas, das mit etwas zuvor Gesehenem übereinstimmt“, sagte Lauren Coffren vom US-amerikanischen National Center for Missing & Exploited Children gegenüber Bloomberg. „Livestreaming bedeutet, dass es brandneu ist.“

source-115

Leave a Reply