Studie des EU-Parlaments kritisiert Vorschlag für Material über Kindesmissbrauch im Internet


Die von EURACTIV erhaltene Folgenabschätzung des Europäischen Parlaments zum Vorschlag für das Material zum sexuellen Missbrauch von Kindern (CSAM) im Internet wirft erhebliche Bedenken hinsichtlich der Privatsphäre und der technischen Auswirkungen des Gesetzesentwurfs auf.

Der Vorschlag der Europäischen Kommission zur Bekämpfung der Verbreitung von Inhalten mit sexuellem Missbrauch von Kindern ist aufgrund seiner Auswirkungen auf die Privatsphäre auf heftigen Widerstand gestoßen.

In seiner jetzigen Form würde der Vorschlag die Justizbehörden ermächtigen, Ermittlungsanordnungen für Messaging-Apps oder Mailing-Dienste zu erlassen, bei denen ein erhebliches Risiko besteht, dass diese Art von illegalen Inhalten verbreitet werden.

Nach Erhalt einer Ermittlungsanordnung müsste ein Kommunikationsdienstanbieter automatisierte Tools einrichten, um bekannte CSAM, aber auch neues missbräuchliches Material und alles, was mit Grooming zusammenhängen kann, zu erkennen.

Das Europäische Parlament hat eine zusätzliche Folgenabschätzung in Auftrag gegeben, die von EURACTIV erhalten wurde, um diese Bedenken bezüglich des Vorschlags zu bewerten. vorgeführt am Donnerstag (13. April) vor dem Parlamentsausschuss für bürgerliche Freiheiten, Justiz und Inneres.

Das relevanteste Ergebnis der Studie ist, dass die aktuelle Technologie nicht weit genug fortgeschritten ist, um neue CSAM und Grooming zu erkennen, ohne dass dies zu einer hohen Fehlerquote führt. Die Fehlerquote wäre besonders signifikant, da potenziell alle Nachrichten auf einer Plattform gescannt werden könnten.

Eine weitere Sorge im Zusammenhang mit dem EU-Vorschlag ist, dass er im Widerspruch zur Ende-zu-Ende-Verschlüsselung stehen würde. Diese Technologie ermöglicht es nur dem Empfänger der Kommunikation, die Nachricht zu lesen.

Laut der vom Parlament in Auftrag gegebenen Studie gibt es derzeit keine technologische Lösung, die das Scannen privater Kommunikation ermöglichen würde, die durch Ermittlungsanordnungen angefordert wird, ohne die Ende-zu-Ende-Verschlüsselung zu untergraben.

Die Folgenabschätzung besagt auch, dass es unwahrscheinlich ist, dass solche technischen Lösungen in den kommenden zwei bis fünf Jahren entwickelt werden, also bis zum Inkrafttreten der neuen Verordnung.

Fehlalarm

Der Gesetzesentwurf gibt einem neuen EU-Zentrum die Aufgabe, Fehlalarme auszusortieren, um zu verhindern, dass unschuldige Inhalte wie der Austausch von Inhalten mit Bezug zu Erwachsenen in die Hände von Strafverfolgungsbehörden gelangen.

In der Folgenabschätzung wird argumentiert, dass es auch unwahrscheinlich ist, dass das geplante EU-Zentrum „die Erkennungsqualität wesentlich verbessern würde, wenn man bedenkt, dass jahrzehntelange Forschung und Entwicklung bisher nicht zu einer hohen Genauigkeit bei der Erkennung neuer CSAM und Grooming geführt haben“.

Selbst ohne Berücksichtigung der Ende-zu-Ende-Verschlüsselung stellt die Folgenabschätzung fest, dass „zum jetzigen Zeitpunkt nur die Erkennung bekannter CSAM auf offenen Kommunikationskanälen mit relativ hoher Genauigkeit erfolgen kann“.

Mit anderen Worten, neues Material wäre schwieriger zu erkennen, und sogar bekanntes Material könnte so verändert werden, dass es den Erkennungsalgorithmen entgeht.

Während Ende-zu-Ende-Verschlüsselung zunehmend in Kommunikationsdiensten wie WhatsApp verbreitet ist, sind die Autoren der Studie der Ansicht, dass die EU-Gesetzgebung die Entwicklung dieser Art von Technologie bremsen könnte.

Darüber hinaus würde das Scannen von zuvor geschützten Nachrichten diese nicht nur dem Dienstanbieter vollständig zugänglich machen, sondern im Falle einer Sicherheitsverletzung oder eines Hackings könnten die Daten der Benutzer möglicherweise offengelegt werden.

Ross Creelman, Public Policy Manager der European Telecommunications Network Operators’ Association, sagte gegenüber EURACTIV, dass sie sich einig sind, dass „das Risiko der Verschlüsselung das Vertrauen in solche Technologien und Grundrechte untergräbt – und das alles in einem Maße, das über das hinausgeht, was für das politische Ziel erforderlich ist .“

Abgesehen von Bedenken hinsichtlich der Verschlüsselung hebt die Studie hervor, dass sich Minderjährige im Teenageralter „unwohl fühlen könnten, wenn einvernehmlich geteilte Bilder als CSAM klassifiziert werden könnten“.

Zu den weiteren Herausforderungen gehören die Tatsache, dass das Auffinden von Materialien im Dark Web noch komplexer ist und dass es eine Sprachbarriere gibt, da die meisten Technologien derzeit nur auf Englisch funktionieren und dass mit fortschreitender Technologie auch die Get-Arounds zunehmen. Die Folgenabschätzung, die diese Herausforderungen ebenfalls aufgeworfen hat, spricht von einem „Technologie-Wettrüsten“.

Emily Slifer, Director of Policy bei der Kinderschutzorganisation Thorn, sagte gegenüber EURACTIV, dass die Studie dem „tatsächlichen Funktionieren der Technologie“ nicht genügend Aufmerksamkeit geschenkt habe.

Sowohl Slifer als auch die CEO der Internet Watch Foundation, Susie Hargreaves, erklärten, dass sie für einen Austausch mit den Autoren der Studie offen gewesen wären und ihre Expertise angeboten hätten.

Eine Lösung mit mehr Potenzial wären laut der Studie an dieser Stelle Analysen des Nutzerverhaltens und von Metadaten, etwa Netzwerksignalen. Diese Lösung wird bereits weitgehend von großen Plattformen wie WhatsApp verwendet.

[Edited by Luca Bertuzzi/Nathalie Weatherald]



source-127

Leave a Reply