Dieser Chatbot zielt darauf ab, Menschen von Kindesmissbrauchsmaterial fernzuhalten


Die Verwendung des Chatbots ist direkter und vielleicht ansprechender, sagt Donald Findlater, der Direktor des Stop It Now-Hotline betrieben von der Lucy Faithfull Foundation. Nachdem der Chatbot im März mehr als 170.000 Mal erschienen war, klickten sich 158 Personen auf die Website der Helpline. Obwohl die Zahl „bescheiden“ ist, sagt Findlater, haben diese Leute einen wichtigen Schritt gemacht. „Dafür haben sie eine Menge Hürden genommen“, sagt Findlater. „Alles, was Menschen daran hindert, die Reise gerade erst zu beginnen, ist ein Maß für den Erfolg“, fügt Hargreaves von der IWF hinzu. „Wir wissen, dass die Leute es benutzen. Wir wissen, dass sie Empfehlungen abgeben, wir wissen, dass sie auf Dienste zugreifen.“

Pornhub hat einen wechselhaften Ruf für die Moderation von Videos auf seiner Website, und die Berichte sind detailliert wie Frauen und Mädchen Videos von sich hochladen ließen ohne ihre Zustimmung. Im Dezember 2020, Pornhub hat mehr als 10 Millionen Videos entfernt von seiner Website und fing an, Leute zu verlangen Hochladen von Inhalten, um ihre Identität zu überprüfen. Vergangenes Jahr, 9.000 Stück CSAM wurden von Pornhub entfernt.

„Der IWF-Chatbot ist eine weitere Schutzebene, um sicherzustellen, dass die Benutzer darüber aufgeklärt werden, dass sie kein solches illegales Material auf unserer Plattform finden, und sie an Stop It Now weiterleitet, um ihr Verhalten zu ändern“, sagt ein Sprecher von Pornhub und fügt hinzu, dass dies der Fall ist „Null Toleranz“ für illegales Material und hat klare Richtlinien rund um CSAM. Die am Chatbot-Projekt Beteiligten sagen, Pornhub habe sich freiwillig zur Teilnahme gemeldet, werde dafür nicht bezahlt und das System werde das nächste Jahr auf der britischen Website von Pornhub laufen, bevor es von externen Wissenschaftlern evaluiert werde.

John Perrino, ein Politikanalyst am Stanford Internet Observatory, der nicht mit dem Projekt verbunden ist, sagt, dass es in den letzten Jahren eine Zunahme gegeben hat, neue Tools zu entwickeln, die „Sicherheit durch Design” Schaden online zu bekämpfen. „Es ist eine interessante Zusammenarbeit im Einklang mit Politik und öffentlicher Wahrnehmung, um Benutzern zu helfen und sie auf gesunde Ressourcen und gesunde Gewohnheiten hinzuweisen“, sagt Perrino. Er fügt hinzu, dass er noch nie zuvor gesehen habe, dass ein solches Tool für eine Pornografie-Website entwickelt wurde.

Es gibt bereits einige Beweise dafür, dass diese Art von technischem Eingriff einen Unterschied machen kann, indem sie Menschen von potenziellem Material über sexuellen Missbrauch von Kindern ablenkt und die Anzahl der Online-Suchen nach CSAM verringert. Zum Beispiel als weit zurück ins Jahr 2013hat Google mit der Lucy Faithfull Foundation zusammengearbeitet, um Warnmeldungen einzuführen, wenn Personen nach Begriffen suchen, die mit CSAM verknüpft sein könnten. Als Folge der Warnungen sei die Zahl der Suchanfragen nach Material über sexuellen Missbrauch von Kindern „um das Dreizehnfache zurückgegangen“, sagte Google im Jahr 2018.

Ein separates Studie im Jahr 2015 gefunden Suchmaschinen, die Blockierungsmaßnahmen gegen Begriffe im Zusammenhang mit sexuellem Missbrauch von Kindern einführten, verzeichneten einen drastischen Rückgang der Suchanfragen im Vergleich zu denen, die keine Maßnahmen ergriffen. Eine Reihe von Anzeigen, die darauf ausgelegt sind, Personen, die nach CSAM suchen, an Beratungsstellen in Deutschland weiterzuleiten gesehen 240.000 Website-Klicks und mehr als 20 Millionen Impressions über einen Zeitraum von drei Jahren. EIN Studie 2021 das sich Warn-Popup-Meldungen auf Glücksspiel-Websites ansah, stellte fest, dass die Anstupser eine „begrenzte Wirkung“ hatten.

Diejenigen, die mit dem Chatbot zu tun haben, betonen, dass sie ihn nicht als die einzige Möglichkeit sehen, Menschen daran zu hindern, im Internet Material über sexuellen Missbrauch von Kindern zu finden. „Die Lösung ist keine Wunderwaffe, die die Nachfrage nach sexuellem Missbrauch von Kindern im Internet stoppen wird. Es wird in einer bestimmten Umgebung eingesetzt“, sagt Sexton. Wenn das System jedoch erfolgreich ist, fügt er hinzu, könnte es dann auf andere Websites oder Online-Dienste ausgeweitet werden.

„Es gibt auch andere Orte, an denen sie suchen werden, sei es auf verschiedenen Social-Media-Sites oder auf verschiedenen Gaming-Plattformen“, sagt Findlater. Wenn dies jedoch passieren sollte, müssten die Auslöser, die dazu führen, dass es auftaucht, ausgewertet und das System für die spezifische Website, auf der es sich befindet, neu aufgebaut werden. Die von Pornhub verwendeten Suchbegriffe würden beispielsweise bei einer Google-Suche nicht funktionieren. „Wir können eine Reihe von Warnungen nicht in einen anderen Kontext übertragen“, sagt Findlater.

source-114

Leave a Reply