EU-finanziertes Projekt erprobt Gerätescans nach Inhalten des sexuellen Missbrauchs von Kindern


Ein neues Projekt von Forschern aus der EU und dem Vereinigten Königreich will ein maschinelles Lerntool entwickeln, um Material über sexuellen Missbrauch von Kindern (CSAM) auf Geräten in Echtzeit zu erkennen und zu blockieren.

Das von der Europäischen Kommission finanzierte Projekt, das am Donnerstag (23. Februar) von der britischen Kinderschutzorganisation Internet Watch Foundation (IWF) angekündigt wurde, wird nächsten Monat beginnen und zwei Jahre lang an der Entwicklung des Tools arbeiten.

Die Software wird auf freiwilliger Basis von Personen getestet, die der Ansicht sind, dass sie Gefahr laufen, CSAM online anzusehen. Das Tool führt eine Echtzeitüberwachung durch und blockiert den Zugriff auf alle Bilder oder Videos in dieser Kategorie, bevor der Benutzer sie anzeigen kann.

„Leider ist die Nachfrage nach Bildern und Videos von Kindern, die sexuell missbraucht werden, ungebrochen“, sagte der Chief Technology Officer der IWF, Dan Sexton.

„Aber wir wissen, dass das Auffinden und Entfernen dieser entsetzlichen Inhalte im andauernden globalen Kampf gegen den sexuellen Missbrauch von Kindern nicht ausreicht, weshalb wir gerne unsere Rolle in diesem Projekt spielen, um Software zu trainieren und zu testen, die sich als lebenswichtig erweisen könnte in erster Linie die Nachfrage nach kriminellem Material zu senken.“

Der 2 Mio. € „Protech“ Projekt, das im März starten soll, wird von der Universitätsklinik Charité geleitet – Universitätsmedizin Berlin (CUB) und bringt Experten aus Bereichen wie Kinderschutz, Psychologie, Softwareentwicklung und öffentliche Gesundheit zusammen.

Zu den teilnehmenden Organisationen aus dem Vereinigten Königreich und der EU gehören Gruppen wie die Lucy Faithfull Foundation, Stop it Now Niederlande und das University Forensic Centre des Universitätskrankenhauses Antwerpen.

Forscher dieser Institutionen werden zusammenarbeiten, um ein maschinelles Lerntool mit dem Namen Salus zu entwickeln, das CSAM-Material erkennt und abfängt, um zu verhindern, dass es auf den Bildschirmen der Benutzer erscheint.

Die Software erfordert keine Interaktion, es sei denn, das Material wird erkannt, aber ihre Geräteinstallation ist freiwillig. Das Tool, so die IWF, wird Benutzern eingreifen, die befürchten, dass sie Gefahr laufen, Kinder zu beleidigen, und sich bemühen, die Angst von Überlebenden des sexuellen Missbrauchs von Kindern vor erneuter Viktimisierung durch vorhandene Inhalte zu verringern.

Das Projekt wird auch untersuchen, was passiert, wenn solche Inhalte entdeckt werden. Ein IWF-Sprecher sagte gegenüber EURACTIV, dass das Tool nicht beabsichtigt, Benutzer der Polizei zu melden, sondern auf der Präventionsseite zu arbeiten, um die Verfügbarkeit solcher illegalen Inhalte zu reduzieren.

„Freiwillige, die die App nutzen, werden Menschen sein, die sich davon abhalten wollen, Material über sexuellen Missbrauch von Kindern zu sehen, und von Organisationen rekrutiert werden, die ihnen helfen sollen, ihr Verhalten zu kontrollieren“, sagte der Sprecher.

Während der Pilotphase wird die App über einen Zeitraum von 11 Monaten mindestens 180 Nutzern in fünf Ländern – Deutschland, den Niederlanden, Belgien, Irland und Großbritannien – angeboten. Die Projektmitglieder werden dann seine Einführung und Wirkung bewerten und seinen potenziellen Einsatz als Bestandteil von Präventionsinitiativen im Bereich der öffentlichen Gesundheit in Betracht ziehen.

„Digitale Geräte können eine Rolle bei der Verringerung des sexuellen Missbrauchs im Internet spielen, indem sie bestimmte Funktionen und Maßnahmen bereitstellen, die die Sicherheit der Benutzer verbessern, wie Sicherheits- und Datenschutzeinstellungen, Melde- und Sperroptionen“, Stefan Bogaerts, Vorsitzender der Abteilung für Entwicklungspsychologie der Universität Tilburg.

Im vergangenen Jahr veröffentlichte die Kommission ihren eigenen Vorschlag zur Bekämpfung von CSAM, der die Möglichkeit für Justizbehörden beinhaltet, Anbieter von Kommunikationsdiensten wie Messaging-Apps und E-Mails aufzufordern, Maßnahmen zur Erkennung von Inhalten mit Kindesmissbrauch zu ergreifen.

Während die Maßnahme von Befürwortern der Kindersicherheit begrüßt wurde, wurde sie dafür kritisiert, dass sie nicht mit der Ende-zu-Ende-Verschlüsselung kompatibel ist, einer Technologie, bei der nur diejenigen, die an der Kommunikation beteiligt sind, die Nachrichten entschlüsseln können.

Die Durchsetzung von Erkennungsanordnungen kann im Wesentlichen auf zwei Arten erfolgen, wobei die Kommunikation an einen zusätzlichen „Scanning“-Server gesendet wird und über das Scannen auf dem Gerät.

Ella Jakubowska, Senior Policy Officer bei European Digital Rights (EDRi), sagte gegenüber EURACTIV, dass das Projekt zwar auf den Betrieb auf dem Gerät ausgerichtet zu sein scheint, aber starke Sicherheitsvorkehrungen erforderlich seien, um „Scope-Creep“ zu verhindern und sicherzustellen, dass die Technologie dies nicht tut am Ende für die Überwachung von Geräten durch Dritte verwendet werden.

Die Einbeziehung von Datenschutz-, Datenschutz- und Cybersicherheitsexperten in das Projekt sei ebenfalls von entscheidender Bedeutung, sagte Jakubowska und fügte hinzu: „Während Innovationen bei der Verhinderung von Kindesmissbrauch von entscheidender Bedeutung sind, gibt es immer Grenzen für die Möglichkeiten eines technologischen Ansatzes.“

„Keine App kann Investitionen in Bildung, in soziale Dienste, in die Gesundheitsvorsorge und in die Bewältigung der strukturellen Probleme ersetzen, die zu Straftaten führen“, sagte sie.

[Edited by Luca Bertuzzi/Alice Taylor]



source-127

Leave a Reply