Die Erklärung von Europol gegen die Ende-zu-Ende-Verschlüsselung entfacht die Debatte neu und löst Bedenken hinsichtlich der Privatsphäre aus


In der jüngsten gemeinsamen Erklärung von Europol und europäischen Polizeichefs werden Maßnahmen gegen die Ende-zu-Ende-Verschlüsselung gefordert und Bedenken hinsichtlich einer möglichen Behinderung der Justiz geäußert, während eine Debatte darüber geführt wird, wie Datenschutz und Kriminalitätsbekämpfung in Einklang gebracht werden sollen.

Ende April veröffentlichte Europol eine gemeinsame Erklärung Die europäischen Polizeichefs forderten Industrie und Regierungen auf, Maßnahmen gegen die Einführung der Ende-zu-Ende-Verschlüsselung zu ergreifen, und sagten, dass diese Technologie die Strafverfolgungsbehörden daran hindern werde, Beweise gegen Kriminelle zu beschaffen und zu verwenden.

Durch die Ende-zu-Ende-Verschlüsselung (E2EE) wird sichergestellt, dass nur der Absender und der Empfänger einer Nachricht diese lesen können, sodass sie auch vor der Plattform oder dem Dienstanbieter, der die Kommunikation sendet, wie WhatsApp oder Signal, vertraulich bleibt.

Im dokumentierenbetonen europäische Polizeichefs die Bedeutung der Zusammenarbeit zwischen Strafverfolgungsbehörden und Technologieunternehmen, um die öffentliche Sicherheit zu gewährleisten, insbesondere bei der Bekämpfung von Verbrechen wie Terrorismus und sexuellem Kindesmissbrauch.

Sie äußerten Bedenken, dass die Implementierung einer Ende-zu-Ende-Verschlüsselung ihre Fähigkeit beeinträchtigen könnte, auf wichtige Daten zuzugreifen und illegale Aktivitäten zu identifizieren, und plädierten für einen ausgewogenen Ansatz, der der Cybersicherheit Priorität einräumt.

In ihrer Erklärung wurden auch demokratische Regierungen aufgefordert, Rahmenbedingungen zu schaffen, die die notwendigen Informationen für die öffentliche Sicherheit bereitstellen.

Bekämpfung des sexuellen Missbrauchs von Kindern

Die Verschlüsselung stand auch im Mittelpunkt der Kontroverse um einen EU-Gesetzentwurf zur Erkennung und Entfernung von Online-Material über sexuellen Kindesmissbrauch (CSAM). Einige stimmen mit den Ansichten von Europol überein, andere sehen Verschlüsselung als eine Maßnahme zur Unterstützung des Datenschutzes.

„Eines der Leitprinzipien der Verordnung ist die Technologieneutralität. Daher verbietet oder bevorzugt die Verordnung keine bestimmten Tools oder Technologien für die Anbieter, um ihren Verpflichtungen aus der Verordnung nachzukommen, solange diese Technologien und Tools bestimmte Schutzmaßnahmen einhalten.“ Javier Zarzalejos, der Berichterstatter des Europäischen Parlaments für die CSAM-Akte, sagte gegenüber Euractiv im vergangenen September.

Susie Hargreaves, CEO der britischen Internet Watch Foundation, einem Hotline-Dienst für Personen, die potenziell kriminelles CSAM melden können, sagte gegenüber Euractiv: „Kriminellen darf kein sicherer Ort für den sexuellen Missbrauch von Kindern gegeben werden, und Untersuchungen legen nahe, dass Unternehmen die Verbreitung sexuellen Kindesmissbrauchs verhindern können.“ in End-to-End-Umgebungen ohne Beeinträchtigung der Privatsphäre.“

„Im August 2021 sagte Apple, eines der größten Technologieunternehmen der Welt, dass es möglich sei, Material über sexuellen Missbrauch von Kindern auf eine Weise zu erkennen, die die Privatsphäre schützt“, fügte sie hinzu.

Die bösen Jungs

Obwohl dies wahr ist, gab Apple seine Entscheidung bekannt, das Foto-Scan-Tool Ende 2022 abzuschaffen. Dann, im vergangenen September, verwies der US-amerikanische Technologieriese auf Datenschutzbedenken, um die Erkennung von CSAM zu verweigern.

Damals schrieb Erik Neuenschwander, Direktor für Benutzerdatenschutz und Kindersicherheit bei Apple, in einem Brief, veröffentlicht von Verdrahtetdass das Scannen nach einem Inhaltstyp „die Tür für Massenüberwachung öffnet und den Wunsch wecken könnte, andere verschlüsselte Nachrichtensysteme über Inhaltstypen (wie Bilder, Videos, Text oder Audio) und Inhaltskategorien hinweg zu durchsuchen“.

Chloé Berthélémy, leitende Politikberaterin bei EDRi, der European Digital Rights, einer gemeinnützigen Organisation, die sich für digitale Rechte einsetzt, sagte gegenüber Euractiv, es sei „unmöglich zu garantieren, dass Verschlüsselungs-Hintertüren aus legitimen Gründen ausschließlich von legitimen Behörden ausgenutzt werden“, und wiederholte Neuenschwanders letzten Kommentar Jahr.

Carmela Troncoso, eine auf Datenschutzfragen spezialisierte Telekommunikationsingenieurin und Forscherin, sagte gegenüber Euractiv, dass uns derzeit Tools fehlen, „um die Verschlüsselung nur „für die Bösen“ zu entfernen“.

„Die Untergrabung der Verschlüsselung gefährdet die gesamte Gesellschaft, auch diejenigen, von denen sie behaupten, dass sie den größten Schutz benötigen. Wenn die Einführung der Verschlüsselung gestoppt wird, werden Kriminelle ihre eigenen Plattformen verschieben und ihre eigenen Schutzmaßnahmen entwickeln, wie sie es jetzt tun. Es bleibt nur noch die breite Öffentlichkeit zu beobachten, mit den schlimmen Folgen, die das hat“, erklärte sie.

Auch Will Cathcart, Chef von WhatsApp, wies in einem Artikel für auf die Datenschutzseite der Technologie hin Der Ökonom im Dezember, da Meta, der Eigentümer von WhatsApp, eines der jüngsten Unternehmen ist, das E2EE eingeführt hat.

Während WhatsApp die Technologie bereits nutzte, wurde sie erst später in Facebook Messenger und Instagram Direct Messages eingeführt.

Doch in einem Beitrag aus dem Jahr 2018 von Gail Kent, Leiterin der globalen öffentlichen Politik für Sicherheit bei Meta, hervorgehoben die Vorteile von E2EE unter Berücksichtigung der Herausforderungen für die Strafverfolgung.

Kent betonte die Unpraktikabilität von Hintertüren und plädierte für eine Zusammenarbeit mit Regierungen innerhalb der gesetzlichen Grenzen. Abschließend forderte er eine Aufklärung der Benutzer über die Stärken und Grenzen der Verschlüsselung.

Die Kontroverse

Emily Slifer, Direktorin für Richtlinien bei Thorn, einer NGO, die sich auf den Einsatz von Technologie zur Bekämpfung des sexuellen Missbrauchs von Kindern konzentriert, sagte gegenüber Euractiv im vergangenen September, wir müssten „aufhören, die Privatsphäre der Nutzer und die Sicherheit von Kindern gegeneinander auszuspielen, denn mit Tools wie den von Thorn und Andere neben einem angemessenen Rahmen mit robusten Schutzmaßnahmen können wir beides haben.“

Thorn verfügt über eine eigene Software, Safer, zur Erkennung von CSAM.

Diese Tools seien „seit Jahren zuverlässig im Einsatz“ und würden „von Tag zu Tag verbessert“, fügte sie hinzu.

Die Erkennung von CSAM erfolgt tatsächlich bereits auf freiwilliger Basis.

Im Januar haben europäische Regierungen ein Dokument vorgelegt, in dem dargelegt wird, wie sie die vorübergehende Regelung zur Verhinderung von CSAM umsetzen, und detailliert darlegt, wie der Gesetzentwurf bereits zur Erkennung verdächtiger Inhalte genutzt wird.

Die aus verschiedenen Quellen stammenden Fälle, darunter Europol und Online-Dienstleister, zeigten erfolgreiche Aufdeckungs- und Strafverfolgungsbemühungen in allen EU-Mitgliedstaaten, unterstützt durch die Zusammenarbeit mit internationalen Organisationen wie dem National Center for Missing & Exploited Children (NCMEC).

Die Übergangsregelung war als Übergangslösung mit dem Ziel gedacht, ein dauerhaftes Gesetz zur Bekämpfung von CSAM zu erlassen.

Nach mehreren Verzögerungen bei der Verabschiedung der ständigen Verordnung schlugen die Kommission, das Parlament und der Ausschuss der Ständigen Vertreter (AStV) jeweils unterschiedliche Verlängerungen der Übergangsregelungen vor.

Im April schließlich das Europäische Parlament unterstützt Verlängerung einer Ausnahme von den EU-Datenschutzbestimmungen bis zum 3. April 2026.

Euractiv hat die Kommission um einen Kommentar zur gemeinsamen Erklärung gebeten, zum Zeitpunkt der Veröffentlichung jedoch keine Antwort erhalten.

[Edited by Zoran Radosavljevic]

Lesen Sie mehr mit Euractiv



source-127

Leave a Reply