Vergessen Sie Cambridge Analytica – So könnte KI Wahlen bedrohen

Im Jahr 2018 war die Welt schockiert, als sie erfuhr, dass das britische Politikberatungsunternehmen Cambridge Analytica ohne deren Zustimmung die personenbezogenen Daten von mindestens 50 Millionen Facebook-Nutzern gesammelt und zur Beeinflussung von Wahlen in den USA und im Ausland genutzt hatte.

Eine verdeckte Untersuchung von Channel 4 News ergab Filmaufnahme Der damalige CEO des Unternehmens, Alexander Nix, sagte, es habe keine Probleme damit, die Öffentlichkeit absichtlich in die Irre zu führen, um seine politischen Kunden zu unterstützen, und sagte:

„Es klingt schrecklich, das zu sagen, aber das sind Dinge, die nicht unbedingt wahr sein müssen. Solange man ihnen glaubt“

Der Skandal war ein Weckruf für die Gefahren sozialer Medien und Big Data und zeigte, wie fragil die Demokratie angesichts des rasanten technologischen Wandels weltweit sein kann.

Künstliche Intelligenz

Wie passt künstliche Intelligenz (KI) in dieses Bild? Könnte es auch dazu genutzt werden, Wahlen zu beeinflussen und die Integrität von Demokratien weltweit zu gefährden?

Laut Trish McCluskey, außerordentlicher Professor an der Deakin University, und vielen anderen lautet die Antwort ein klares Ja.

McCluskey sagte gegenüber Cointelegraph, dass große Sprachmodelle wie ChatGPT von OpenAI „nicht unterscheidbare Inhalte aus von Menschen geschriebenen Texten generieren können“, was zu Desinformationskampagnen oder der Verbreitung gefälschter Nachrichten im Internet beitragen kann.

Neben anderen Beispielen dafür, wie KI Demokratien potenziell bedrohen kann, hob McCluskey die Fähigkeit der KI hervor, Deep Fakes zu produzieren, die Videos von Persönlichkeiten des öffentlichen Lebens wie Präsidentschaftskandidaten fabrizieren und die öffentliche Meinung manipulieren können.

Während es im Allgemeinen immer noch leicht zu erkennen ist, ob es sich bei einem Video um einen Deepfake handelt, schreitet die Technologie rasant voran und wird irgendwann nicht mehr von der Realität zu unterscheiden sein.

Beispielsweise zeigt ein Deepfake-Video des ehemaligen FTX-CEO Sam Bankman-Fried, das mit einer Phishing-Website verlinkt ist, dass die Lippen oft nicht mit den Worten übereinstimmen, was den Zuschauern das Gefühl gibt, dass etwas nicht ganz stimmt.

Gary Marcu, ein KI-Unternehmer und Co-Autor des Buches Neustart der KI: Aufbau künstlicher Intelligenz, der wir vertrauen können, stimmte McCluskeys Einschätzung zu und teilte Cointelegraph mit, dass auf kurze Sicht das größte Risiko, das von KI ausgeht, Folgendes sei:

„Die Gefahr massiver, automatisierter, plausibler Fehlinformationen überwältigt die Demokratie.“

Ein von Experten begutachteter Artikel aus dem Jahr 2021 Papier von den Forschern Noémi Bontridder und Yves Poullet mit dem Titel „Die Rolle künstlicher Intelligenz bei Desinformation“ hob ebenfalls die Fähigkeit von KI-Systemen hervor, zur Desinformation beizutragen, und schlug vor, dass dies auf zwei Arten geschieht:

“Zuerst … Sie [AI] können von böswilligen Akteuren ausgenutzt werden, um Einzelpersonen besonders effektiv und in großem Umfang zu manipulieren. Zweitens verstärken sie direkt die Verbreitung solcher Inhalte.“

Darüber hinaus sind heutige KI-Systeme nur so gut wie die ihnen zugeführten Daten, was manchmal zu voreingenommenen Antworten führen kann, die die Meinung der Benutzer beeinflussen können.

So mindern Sie die Risiken

Während klar ist, dass KI das Potenzial hat, die Demokratie und Wahlen auf der ganzen Welt zu bedrohen, ist es erwähnenswert, dass KI auch eine positive Rolle in der Demokratie spielen und Desinformation bekämpfen kann.

McCluskey erklärte beispielsweise, dass KI „zum Erkennen und Markieren von Desinformation, zur Erleichterung der Faktenprüfung, zur Überwachung der Wahlintegrität“ sowie zur Aufklärung und Einbindung der Bürger in demokratische Prozesse eingesetzt werden könne.

„Der Schlüssel“, fügt McCluskey hinzu, „besteht darin, sicherzustellen, dass KI-Technologien verantwortungsvoll entwickelt und genutzt werden und entsprechende Vorschriften und Sicherheitsvorkehrungen vorhanden sind.“

Ein Beispiel für Vorschriften, die dazu beitragen können, die Fähigkeit von KI zur Produktion und Verbreitung von Desinformation zu verringern, ist der Digital Services Act (DSA) der Europäischen Union.

Verwandt: Der CEO von OpenAI wird zusammen mit dem Befürworter der „KI-Pause“ und dem IBM-Manager vor dem Kongress aussagen

Wenn das DSA vollständig in Kraft tritt, müssen große Online-Plattformen wie Twitter und Facebook eine Reihe von Verpflichtungen erfüllen, die unter anderem darauf abzielen, Desinformation zu minimieren, oder mit Geldstrafen von bis zu 6 % ihres Jahresumsatzes belegt werden.

Der DSA führt außerdem erhöhte Transparenzanforderungen für diese Online-Plattformen ein, die von ihnen verlangen, offenzulegen, wie sie den Nutzern Inhalte empfehlen – häufig mithilfe von KI-Algorithmen – und wie sie Inhalte moderieren.

Bontridder und Poullet stellten fest, dass Unternehmen zunehmend KI zur Moderation von Inhalten einsetzen, was ihrer Meinung nach „besonders problematisch“ sein könnte, da KI das Potenzial habe, übermäßig zu moderieren und die freie Meinungsäußerung zu beeinträchtigen.

Das DSA gilt nur für Operationen in der Europäischen Union; McCluskey weist darauf hin, dass als globales Phänomen internationale Zusammenarbeit notwendig wäre, um KI zu regulieren und Desinformation zu bekämpfen.

Magazin: Bitcoin im Wert von 3,4 Milliarden US-Dollar in einer Popcorndose – Die Geschichte des Silk Road-Hackers

McCluskey schlug vor, dass dies durch „internationale Vereinbarungen zur KI-Ethik, Standards für den Datenschutz oder gemeinsame Anstrengungen zur Verfolgung und Bekämpfung von Desinformationskampagnen“ geschehen könnte.

Letztendlich sagte McCluskey, dass „die Bekämpfung des Risikos, dass KI zur Desinformation beiträgt, einen vielschichtigen Ansatz erfordert“, der „staatliche Regulierung, Selbstregulierung durch Technologieunternehmen, internationale Zusammenarbeit, öffentliche Bildung, technologische Lösungen, Medienkompetenz und laufende Forschung“ umfasst.