Der neue Weg zum Datenschutz nach dem Scheitern der EU-Datenverordnung

Die endlosen Cookie-Einstellungen, die für jede Website angezeigt werden, fühlen sich ein bisschen an wie die Einhaltung eines Streiches eines Internets, das darauf aus ist, sich nicht zu ändern. Es ist sehr nervig. Und es fühlt sich ein bisschen an wie Rache der Datenmärkte an den Regulierungsbehörden, die der Datenschutz-Grundverordnung (DSGVO) einen schlechten Ruf einbringen und es den Anschein erweckt, als hätten sich die Politbürokraten mal wieder ungeschickt in den ansonsten reibungslosen Innovationsverlauf eingemischt .

Die Wahrheit ist jedoch, dass die von der DSGVO vorgeschlagene Vision des Datenschutzes eine viel aufregendere Ära der Innovation anstoßen würde als die heutige Sleaze-Tech. So wie es heute aussieht, wird dies jedoch einfach nicht erreicht. Gefragt ist ein infrastruktureller Ansatz mit den richtigen Anreizen. Lassen Sie mich erklären.

Die granularen Metadaten werden hinter den Kulissen gesammelt

Wie viele von uns jetzt genau wissen, produzieren Laptops, Telefone und jedes Gerät mit dem Präfix „smart“ eine unaufhörliche Menge an Daten und Metadaten. So sehr, dass das Konzept einer souveränen Entscheidung über Ihre persönlichen Daten kaum Sinn macht: Wenn Sie auf einer Seite auf „Nein“ zu Cookies klicken, hat eine E-Mail dennoch stillschweigend einen Tracker geliefert. Löschen Sie Facebook und Ihre Mutter hat Ihr Gesicht mit Ihrem vollständigen Namen in einem alten Geburtstagsbild usw. markiert.

Was heute anders ist (und warum eine CCTV-Kamera in der Tat eine schreckliche Darstellung von Überwachung ist), ist, dass selbst wenn Sie sich entscheiden und über die Fähigkeiten und das Know-how verfügen, um Ihre Privatsphäre zu schützen, wird Ihnen die Gesamtumgebung der Massenmetadatensammlung immer noch schaden. Es geht nicht um Ihre Daten, die sowieso oft verschlüsselt werden, sondern darum, wie die kollektiven Metadatenströme dennoch auf feinkörniger Ebene Dinge enthüllen und Sie als Zielperson ans Licht bringen – als potenzieller Kunde oder potenzieller Verdächtiger, sollten Ihre Muster von Verhalten hervorstechen.

Verwandt: Bedenken hinsichtlich des Datenschutzes nehmen zu und Blockchain ist die Lösung

Wie dies auch aussehen mag, jeder möchte jedoch Privatsphäre. Sogar Regierungen, Unternehmen und vor allem Militär- und nationale Sicherheitsbehörden. Aber sie wollen Privatsphäre für sich selbst, nicht für andere. Und das bringt sie in ein kleines Rätsel: Wie können nationale Sicherheitsbehörden einerseits verhindern, dass ausländische Behörden ihre Bevölkerung ausspionieren, während sie gleichzeitig Hintertüren bauen, damit diese ausspionieren können?

Regierungen und Unternehmen haben keinen Anreiz, Privatsphäre zu gewährleisten

Um es in einer dieser Leserschaft bestens vertrauten Sprache auszudrücken: Die Nachfrage ist da, aber es gibt ein Problem mit Anreize, um es milde auszudrücken. Als Beispiel dafür, wie groß das Anreizproblem derzeit ist, zeigt ein EY-Bericht Werte allein der Markt für Gesundheitsdaten des Vereinigten Königreichs liegt bei 11 Milliarden US-Dollar.

Solche Berichte, obwohl hochspekulativ in Bezug auf den tatsächlichen Wert der Daten, produzieren dennoch ein unwiderstehliches Feam-of-Missing-out oder FOMO, das zu einer selbsterfüllenden Prophezeiung führt, da jeder auf die versprochenen Gewinne stürzt. Das bedeutet, dass, obwohl jeder, von Einzelpersonen bis hin zu Regierungen und großen Technologieunternehmen, die Privatsphäre schützen möchte, einfach keine ausreichenden Anreize dafür bestehen. Das FOMO und die Versuchung, sich durch eine Hintertür zu schleichen, um sichere Systeme ein bisschen weniger sicher zu machen, ist einfach zu groß. Regierungen möchten wissen, worüber ihre (und andere) Bevölkerung spricht, Unternehmen möchten wissen, was ihre Kunden denken, Arbeitgeber möchten wissen, was ihre Mitarbeiter tun, und Eltern und Schullehrer möchten wissen, was die Kinder vorhaben.

Es gibt ein nützliches Konzept aus der frühen Geschichte der Wissenschafts- und Technikforschung, das etwas dazu beitragen kann, dieses Durcheinander zu beleuchten. Das ist die Affordanz-Theorie. Die Theorie analysiert die Nutzung eines Objekts durch seine bestimmte Umgebung, das System und die Dinge, die es den Menschen bietet – die Arten von Dingen, die als Ergebnis des Objekts oder des Systems möglich, wünschenswert, komfortabel und interessant werden. Unser derzeitiges Umfeld bietet, gelinde gesagt, die unwiderstehliche Versuchung der Überwachung für jeden, von Haustierbesitzern und Eltern bis hin zu Regierungen.

Verwandt: Die Datenökonomie ist ein dystopischer Albtraum

In einem ausgezeichneten Buch, Software-Ingenieurin Ellen Ullman beschreibt Programmieren einer Netzwerksoftware für ein Büro. Anschaulich schildert sie das Grauen, als der Chef nach der Installation des Systems aufgeregt feststellt, dass damit auch die Tastenanschläge seiner Sekretärin verfolgt werden können, die über ein Jahrzehnt für ihn gearbeitet hat. Früher gab es Vertrauen und eine gute Zusammenarbeit. Die neuartigen Befugnisse machten den Chef durch diese neue Software versehentlich zu einem Kriecher, der in die detailliertesten täglichen Arbeitsrhythmen der Menschen um ihn herum, die Häufigkeit der Klicks und die Pausen zwischen den Tastenanschlägen spähte. Diese gedankenlose Überwachung, wenn auch mehr durch Algorithmen als durch Menschen, gilt heute normalerweise als Innovation.

Datenschutz als materielle und infrastrukturelle Tatsache

Also, wo landet uns das? Dass wir diese Überwachungsumgebung nicht einfach mit persönlichen Datenschutzpatches versehen können. Ihre Geräte, die Gewohnheiten Ihrer Freunde und die Aktivitäten Ihrer Familie werden dennoch verknüpft und identifizieren Sie. Und die Metadaten werden trotzdem durchsickern. Stattdessen muss die Privatsphäre standardmäßig gesichert werden. Und wir wissen, dass dies nicht allein durch den guten Willen von Regierungen oder Technologieunternehmen geschehen wird, weil sie einfach nicht den Anreiz dazu haben.

Die DSGVO mit ihren unmittelbaren Folgen ist verfehlt. Privatsphäre sollte nicht nur ein Recht sein, das wir verzweifelt bei jedem Website-Besuch durchzusetzen versuchen oder von dem die meisten von uns nur durch teure Gerichtsverfahren träumen können. Nein, es muss eine materielle und infrastrukturelle Tatsache sein. Diese Infrastruktur muss dezentral und global sein, damit sie nicht in das Interesse spezifischer nationaler oder kommerzieller Interessen fällt. Darüber hinaus muss es die richtigen Anreize bieten, die diejenigen, die die Infrastruktur betreiben und warten, entlohnen, damit der Schutz der Privatsphäre lukrativ und attraktiv wird, während der Schutz der Privatsphäre undurchführbar wird.

Abschließend möchte ich auf einen sehr unterschätzten Aspekt der Privatsphäre hinweisen, nämlich ihr positives Innovationspotenzial. Privatsphäre wird eher als Schutzmaßnahme verstanden. Aber wenn der Datenschutz stattdessen einfach eine Tatsache wäre, würden datengesteuerte Innovationen für die Menschen plötzlich viel bedeutsamer. Es würde ein viel breiteres Engagement bei der Gestaltung der Zukunft aller datengesteuerten Dinge ermöglichen, einschließlich maschinellem Lernen und KI. Aber dazu beim nächsten Mal mehr.

Die hier geäußerten Ansichten, Gedanken und Meinungen sind allein die des Autors und spiegeln nicht notwendigerweise die Ansichten und Meinungen von Cointelegraph wider.

Jaya Klara Brekke ist Chief Strategy Officer bei Nym, einem globalen dezentralisierten Datenschutzprojekt. Sie ist wissenschaftliche Mitarbeiterin am Weizenbaum-Institut, hat einen Ph.D. vom Geographie-Department der Durham University über die Politik von Blockchain-Protokollen und ist gelegentlich Fachberater der Europäischen Kommission für Distributed-Ledger-Technologie. Sie spricht, schreibt und forscht zu Privatsphäre, Macht und den politischen Ökonomien dezentraler Systeme.