Davos: Technologieführer denken über Lösung für Wahlmanipulation im Internet nach


Um die Online-Integrität in einem wahlintensiven Jahr auf der ganzen Welt zu wahren, diskutierten Technologieführer am Dienstagabend (16. Januar) in Davos über den jüngsten Aufstieg der KI und ihre Auswirkungen auf irreführende Kampagnen und betrügerische Inhalte im Vorfeld von Wahlen.

Diese Woche kommen Weltführer, Innovatoren, Unternehmer und prominente Wissenschaftler zusammen, um beim Weltwirtschaftsforum in Davos die drängendsten Probleme der Welt zu diskutieren. Teil der diesjährigen Agenda war ein Austausch über die Auswirkungen von KI auf die Demokratie.

Da in diesem Jahr vier Milliarden Menschen zur Wahl gehen, können Fehlinformationen und Desinformationen im Internet einen erheblichen Einfluss auf die Wahlergebnisse in fünf der größten Demokratien der Welt haben.

Der Aufstieg der künstlichen Intelligenz spielt dabei eine große Rolle, sei es als Bedrohungsverstärker oder als Werkzeug zur Faktenprüfung von Informationen.

Bedrohungsverstärker oder Problemlöser?

„In früheren Wahlzyklen haben wir Robocalls gesehen. „Wir haben automatisierte SMS-Kampagnen gesehen, die den Wählern falsche Informationen über ihren Wahlort, darüber, ob ihre Umfrage offen ist oder nicht, oder gezielte, manipulierte Nachrichten senden, die darauf abzielen, ihr Verhalten zu beeinflussen“, sagte Alexandra Reeve Givens, CEO der Zentrum für Demokratie und Technologie.

„Generative KI macht es einfacher, darauf gezielt zu reagieren. […] Es ist einfacher denn je, diese maßgeschneiderten, personalisierten Nachrichten zu verfassen“, fügte sie hinzu.

Gleichzeitig kann maschinelles Lernen zur Vorhersage neuer Bedrohungen eingesetzt werden. Google ist eines der Technologieunternehmen, das mit Large Language Models (LLMs) noch mehr Potenzial für den Aufbau schnellerer und anpassungsfähigerer Durchsetzungssysteme sieht.

„Wir wollen in der Lage sein, alles, was von unserer generativen KI erzeugt wird, so unsichtbar mit einem Wasserzeichen zu versehen, dass es automatisch erkennbar ist, selbst wenn ein Ausschnitt aus einem Video oder ein Bildausschnitt verwendet wird“, sagte Matthew Brittin, Präsident von EMEA Business & Operations für Google, sagte Euractiv.

Er verwies auf SynthID, ein Beta-Tool von Google DeepMind, das digitale Wasserzeichen in KI-generierte Bilder und Audiodaten einbettet.

KI regulieren

Es wird erwartet, dass die EU auch im Vorfeld der Europawahlen mit Fehl- und Desinformationskampagnen konfrontiert wird. Allerdings setzt der tschechische Außenminister Jan Lipavský große Hoffnungen in die weltweit erste bahnbrechende KI-Verordnung, das EU-KI-Gesetz, das sich derzeit in der Endphase der Gesetzgebung befindet.

„Wir werden sehen, dass immer mehr falsche Inhalte verwendet werden, die den Wahlprozess stören und die Art und Weise stören, wie die Gesellschaft Entscheidungen trifft“, erklärte Lipavský.

„Ich mag ehrlich gesagt den europäischen Weg. Die europäische Verordnung zu einer KI wird beispielsweise einige dieser Probleme angehen“, fügte er hinzu.

Reeve Givens bezog sich auf Autokratien, die die Opposition schwächen, indem sie ihre Inhalte als illegale Fehlinformationen kennzeichnen und entfernen, und sah eine potenzielle Bedrohung im Machtmissbrauch durch Staaten zur Regulierung der Technologie.

„Ich denke, es gibt echte Bedenken in unserer Welt, wenn die Regierung entscheiden kann, ob die KI rechtmäßig handelt oder nicht“, sagte sie.

„Möchten Sie, dass der CEO eines Technologieunternehmens entscheidet, ob Informationen höher eingestuft werden sollen, oder dass der Minister der Regierung entscheidet, ob die Informationen höher eingestuft werden sollen? Keine dieser Lösungen ist ideal“, fragte sie.

Wer ist verantwortlich?

Durch Regulierung können Bedrohungen angegangen und bewältigt werden, aber Technologie kann sie auch umgehen. Cyberangriffe auf einen Wahlprozess können von überall aus durchgeführt werden.

Um sich auf diese Asymmetrie vorzubereiten, schlug André Kudelski, CEO der Kudelski-Gruppe, den Einsatz von Technologien vor, um „mehr Rückverfolgbarkeit von Inhalten“ zu implementieren.

Während Menschen nach Informationen über Kandidaten, Wählerregistrierungsfristen und lokale Wahllokale suchen, argumentierte Matthew Prince, CEO von CloudFlare, dass Medien eine zentrale Rolle bei der Überprüfung von Fakten und der Verifizierung von Inhalten spielen, wobei die Tools von Technologen unterstützt werden.

Suchmaschinen und Social-Media-Plattformen teilen jedoch auch die Verantwortung, „dazu beizutragen, vertrauenswürdige Informationsquellen aufzudecken“, fügte Reeve Givens hinzu und kritisierte, dass einige Social-Media-Unternehmen ihre Investitionen in Vertrauen und Sicherheit rund um Wahlen zurückgefahren hätten.

Google sagte, es habe sich im Vorfeld von Wahlen zum Ziel gesetzt, Regierungsinformationen oben in den Suchergebnissen anzuzeigen, Wahllokale auf Google Maps anzugeben, qualitativ hochwertige Wahlnachrichten auf YouTube sicherzustellen und die Identität von Werbetreibenden zu überprüfen.

Der multinationale Technologieriese beabsichtigt außerdem, wahlbezogene Anfragen einzuschränken, auf die Googles Chatbot Bard und die KI-gestützte Search Generative Experience (SGE) Antworten zurückgeben, und priorisiert dabei „Tests auf Sicherheitsrisiken, die von Cybersicherheitslücken bis hin zu Fehlinformationen und Fairness reichen“.

Im August wurden Bard und SGE zuletzt in der deutschen Presse als noch in der Entwicklung befindliche und unzuverlässig beschrieben.

Auch Multimedia-Plattformen gehören zu den Strategien der Angreifer zur Radikalisierung der Gesellschaft.

„Russlands Informationskrieg fand mit der Unterstützung sowohl linker als auch rechter Extremisten statt, nur um die Gesellschaften zu spalten“, fügte Lipavský hinzu.

Für den tschechischen Minister müssen Unternehmen ihr Verständnis der sozialen Verantwortung von Unternehmen stärken, um sicherzustellen, „dass ihre Instrumente nicht missbraucht werden“.

[Edited by Luca Bertuzzi/Zoran Radosavljevic]

Lesen Sie mehr mit Euractiv



source-127

Leave a Reply