Metas Angriff auf die Privatsphäre sollte als Warnung vor KI dienen

In einer zunehmend KI-gesteuerten Welt könnte Blockchain eine entscheidende Rolle dabei spielen, zu verhindern, dass sich die von Apps wie Facebook begangenen Sünden weit verbreiten und normalisieren.

Plattformen für künstliche Intelligenz wie ChatGPT und Googles Bard sind im Mainstream angekommen und wurden bereits beschuldigt, mit ihren Vorurteilen die politische Kluft zu schüren. Wie in beliebten Filmen wie vorhergesagt Der Terminator, Die Matrix und zuletzt, Mission: Impossible – Dead Reckoning Teil Einses ist bereits klar geworden, dass KI ein wildes Tier ist, das wir wahrscheinlich nur schwer zähmen können.

Von demokratiezerstörenden Desinformationskampagnen und Killerdrohnen bis hin zur völligen Zerstörung der Privatsphäre des Einzelnen kann KI möglicherweise die Weltwirtschaft und wahrscheinlich auch die Zivilisation selbst verändern. Im Mai 2023 verfassten globale Technologieführer einen offenen Brief, der Schlagzeilen machte und warnte, dass die Gefahren der KI-Technologie denen von Atomwaffen ebenbürtig sein könnten.

Verwandt: Freundinnen, ermordete Kinder, mörderische Androiden – Ist KI verflucht?

Eine der größten Ängste vor KI ist die mangelnde Transparenz bei der Ausbildung und Programmierung, insbesondere bei Deep-Learning-Modellen, die nur schwer enteignet werden können. Da sensible Daten zum Trainieren von KI-Modellen verwendet werden, können diese manipuliert werden, wenn die Daten kompromittiert werden.

In den kommenden Jahren wird Blockchain in großem Umfang neben KI eingesetzt, um die Transparenz, Verantwortlichkeit und Verständlichkeit des Entscheidungsprozesses zu verbessern.

Wenn beispielsweise ein KI-Modell mithilfe von in einer Blockchain gespeicherten Daten trainiert wird, können die Herkunft und Integrität der Daten sichergestellt und unbefugte Änderungen verhindert werden. Stakeholder können den Entscheidungsprozess verfolgen und überprüfen, indem sie die Trainingsparameter, Aktualisierungen und Validierungsergebnisse des Modells in der Blockchain aufzeichnen.

Bei diesem Anwendungsfall wird Blockchain eine führende Rolle bei der Verhinderung des unbeabsichtigten Missbrauchs von KI spielen. Aber was ist mit der Absicht? Das ist ein viel gefährlicheres Szenario, mit dem wir leider in den kommenden Jahren konfrontiert sein werden.

Auch ohne KI haben zentralisierte Big Tech-Unternehmen in der Vergangenheit ein Verhalten unterstützt und begünstigt, das durch die Manipulation sowohl von Einzelpersonen als auch demokratischer Werte zum Meistbietenden profitiert, wie durch den Cambridge-Analytica-Skandal von Facebook bekannt wurde. Im Jahr 2014 bot die App „Thisisyourdigitallife“ den Nutzern an, gegen Bezahlung Persönlichkeitstests durchzuführen, für die eine Erlaubnis zum Zugriff auf ihre Facebook-Profile und die ihrer Freunde erforderlich war. Im Wesentlichen erlaubte Facebook Cambridge Analytica, Benutzer ohne Erlaubnis auszuspionieren.

Das Ergebnis? Zwei historische massengerichtete psychologische PR-Kampagnen, die einen relativ starken Einfluss sowohl auf die Ergebnisse der US-Präsidentschaftswahlen als auch auf das Referendum über die Mitgliedschaft des Vereinigten Königreichs in der Europäischen Union im Jahr 2016 hatten. Hat Meta (ehemals Facebook) aus seinen Fehlern gelernt? Es sieht nicht so aus.

Im Juli stellte Meta seine neueste App Threads vor. Es gilt als Konkurrent von Elon Musks Twitter und sammelt die üblichen Daten, die Facebook und Instagram sammeln. Aber – ähnlich wie bei TikTok – gewährten Threads-Benutzer Meta unabsichtlich Zugriff auf GPS-Standort, Kamera, Fotos, IP-Informationen, Gerätetyp und Gerätesignale, als sie sich anmeldeten. Es ist eine gängige Praxis von Web2, solche Praktiken mit der Behauptung zu rechtfertigen, dass „Benutzer den Allgemeinen Geschäftsbedingungen zugestimmt haben“. In der Realität wären durchschnittlich 76 Personen erforderlich Tage um alle Datenschutzrichtlinien für jede App zu lesen, die von einem Standard-Internetbenutzer verwendet wird. Der Punkt? Meta hat mittlerweile Zugriff auf fast alles auf den Telefonen von über 150 Millionen Nutzern.

Da kommt KI. Wenn die Nachwirkungen des Cambridge-Analytica-Skandals Anlass zur Sorge geben, können wir dann überhaupt die Auswirkungen einer Verbindung zwischen dieser invasiven Überwachung und der gottgleichen Intelligenz der KI begreifen?

Die wenig überraschende Lösung hier ist Blockchain, aber die Lösung ist nicht so einfach.

Verwandt: Der absurde KI-Wahn geht zu Ende

Eine der größten Gefahren der KI liegt in den Daten, die sie sammeln und dann als Waffe nutzen kann. In Bezug auf soziale Medien kann die Blockchain-Technologie möglicherweise den Datenschutz und die Datenkontrolle verbessern, was dazu beitragen könnte, die Datenerfassungspraktiken großer Technologieunternehmen einzudämmen. Es ist jedoch unwahrscheinlich, dass Big Tech davon abgehalten wird, sensible Daten zu stehlen.

Um sich wirklich vor den absichtlichen Gefahren der KI zu schützen und zukünftige Szenarien wie Cambridge Analytica abzuwehren, sind dezentrale, vorzugsweise Blockchain-basierte Social-Media-Plattformen erforderlich. Durch ihr Design reduzieren sie die Konzentration von Benutzerdaten in einer zentralen Einheit und minimieren so das Potenzial für Massenüberwachung und KI-Desinformationskampagnen.

Vereinfacht gesagt verfügen wir durch die Blockchain-Technologie bereits über die notwendigen Werkzeuge, um unsere Unabhängigkeit von KI sowohl auf individueller als auch auf nationaler Ebene zu gewährleisten.

Kurz nach der Unterzeichnung des offenen Briefes an die Regierungen zu den Gefahren der KI im Mai sagte OpenAI-CEO Sam Altman Phat einen Blogbeitrag veröffentlicht, der mehrere Strategien für den verantwortungsvollen Umgang mit leistungsstarken KI-Systemen vorschlägt. Dazu gehörten die Zusammenarbeit zwischen den großen KI-Entwicklern, eine umfassendere technische Untersuchung großer Sprachmodelle und die Gründung einer globalen Organisation für KI-Sicherheit.

Obwohl diese Maßnahmen einen guten Anfang darstellen, gehen sie nicht auf die Systeme ein, die uns anfällig für KI machen – nämlich die zentralisierten Web2-Entitäten wie Meta. Um wirklich vor KI zu schützen, sind dringend weitere Entwicklungen in Richtung der Einführung Blockchain-basierter Technologien erforderlich, insbesondere im Bereich der Cybersicherheit und für ein wirklich wettbewerbsfähiges Ökosystem dezentraler Social-Media-Apps.

Callum Kennard ist Content Manager bei Storm Partners, einem Web3-Lösungsanbieter mit Sitz in der Schweiz. Er ist Absolvent der University of Brighton in England.

Dieser Artikel dient allgemeinen Informationszwecken und ist nicht als Rechts- oder Anlageberatung gedacht und sollte auch nicht als solche verstanden werden. Die hier geäußerten Ansichten, Gedanken und Meinungen stammen ausschließlich vom Autor und spiegeln nicht unbedingt die Ansichten und Meinungen von Cointelegraph wider.


source site-2

Leave a Reply