Microsoft, OpenAI, Google und andere vereinbaren, wahlbezogene Deepfakes zu bekämpfen


Eine Koalition aus 20 Technologieunternehmen unterzeichnet eine Vereinbarung, die dazu beitragen soll, KI-Deepfakes bei den entscheidenden Wahlen 2024 in mehr als 40 Ländern zu verhindern. OpenAI, Google, Meta, Amazon, Adobe und X gehören zu den Unternehmen, die sich dem Pakt angeschlossen haben, um KI-generierte Inhalte zu verhindern und zu bekämpfen, die Wähler beeinflussen könnten. Die vage Formulierung des Abkommens und die fehlende verbindliche Durchsetzung lassen jedoch Zweifel aufkommen, ob es weit genug geht.

Die Liste der Unternehmen, die das „Tech Accord to Combat Deceptive Use of AI in 2024 Elections“ unterzeichnet haben, umfasst Unternehmen, die KI-Modelle erstellen und verbreiten, sowie soziale Plattformen, auf denen Deepfakes am wahrscheinlichsten auftauchen. Die Unterzeichner sind Adobe, Amazon, Anthropic, Arm, ElevenLabs, Google, IBM, Inflection AI, LinkedIn, McAfee, Meta, Microsoft, Nota, OpenAI, Snap Inc., Stability AI, TikTok, Trend Micro, Truepic und X (ehemals Twitter). ).

Die Gruppe beschreibt die Vereinbarung als „eine Reihe von Verpflichtungen zum Einsatz von Technologien zur Bekämpfung schädlicher KI-generierter Inhalte, die dazu dienen, Wähler zu täuschen.“ Die Unterzeichner haben sich auf die folgenden acht Verpflichtungen geeinigt:

  • Entwicklung und Implementierung von Technologien zur Minderung von Risiken im Zusammenhang mit irreführenden KI-Wahlinhalten, gegebenenfalls einschließlich Open-Source-Tools

  • Bewertung von Modellen im Rahmen dieser Vereinbarung, um die Risiken zu verstehen, die sie in Bezug auf irreführende KI-Wahlinhalte darstellen können

  • Sie möchten die Verbreitung dieser Inhalte auf ihren Plattformen ermitteln

  • Sie versuchen, diese auf ihren Plattformen erkannten Inhalte angemessen zu behandeln

  • Förderung der branchenübergreifenden Widerstandsfähigkeit gegenüber irreführenden KI-Wahlinhalten

  • Der Öffentlichkeit Transparenz darüber verschaffen, wie das Unternehmen damit umgeht

  • Fortsetzung der Zusammenarbeit mit einer Vielzahl globaler zivilgesellschaftlicher Organisationen und Wissenschaftlern

  • Unterstützung von Bemühungen zur Förderung des öffentlichen Bewusstseins, der Medienkompetenz und der Widerstandsfähigkeit der gesamten Gesellschaft

Die Vereinbarung gilt für KI-generierte Audio-, Video- und Bilddateien. Es geht um Inhalte, die „das Aussehen, die Stimme oder die Handlungen von politischen Kandidaten, Wahlbeamten und anderen wichtigen Interessenvertretern einer demokratischen Wahl täuschen oder verändern oder die den Wählern falsche Informationen darüber liefern, wann, wo und wie sie wählen können.“ ”

Die Unterzeichner sagen, dass sie zusammenarbeiten werden, um Tools zur Erkennung und Bekämpfung der Online-Verbreitung von Deepfakes zu entwickeln und zu teilen. Darüber hinaus planen sie, Aufklärungskampagnen voranzutreiben und den Nutzern „Transparenz zu bieten“.

Sam Altman, CEO von OpenAI, gestikuliert während einer Sitzung des Weltwirtschaftsforums (WEF) am 18. Januar 2024 in Davos. (Foto von Fabrice COFFRINI / AFP) (Foto von FABRICE COFFRINI/AFP über Getty Images)Sam Altman, CEO von OpenAI, gestikuliert während einer Sitzung des Weltwirtschaftsforums (WEF) am 18. Januar 2024 in Davos. (Foto von Fabrice COFFRINI / AFP) (Foto von FABRICE COFFRINI/AFP über Getty Images)

OpenAI-CEO Sam Altman (FABRICE COFFRINI über Getty Images)

OpenAI, einer der Unterzeichner, gab bereits letzten Monat bekannt, dass es plant, wahlbezogene Fehlinformationen weltweit zu unterdrücken. Mit dem DALL-E 3-Tool des Unternehmens erstellte Bilder werden mit einem Klassifikator codiert, der ein digitales Wasserzeichen bereitstellt, um ihre Herkunft als KI-generierte Bilder zu verdeutlichen. Der ChatGPT-Hersteller sagte, er werde auch mit Journalisten, Forschern und Plattformen zusammenarbeiten, um Feedback zu seinem Herkunftsklassifikator zu erhalten. Außerdem soll verhindert werden, dass Chatbots sich als Kandidaten ausgeben.

„Wir setzen uns dafür ein, die Integrität von Wahlen zu schützen, indem wir Richtlinien durchsetzen, die Missbrauch verhindern und die Transparenz bei KI-generierten Inhalten verbessern“, schrieb Anna Makanju, Vizepräsidentin für globale Angelegenheiten bei OpenAI, in der gemeinsamen Pressemitteilung der Gruppe. „Wir freuen uns darauf, mit Industriepartnern, führenden Vertretern der Zivilgesellschaft und Regierungen auf der ganzen Welt zusammenzuarbeiten, um dazu beizutragen, Wahlen vor betrügerischem KI-Einsatz zu schützen.“

Bemerkenswerterweise fehlt Midjourney auf der Liste, das Unternehmen mit einem KI-Bildgenerator (mit demselben Namen), der derzeit einige der überzeugendsten gefälschten Fotos produziert. Allerdings gab das Unternehmen Anfang des Monats bekannt, dass es erwägen würde, politische Generationen während der Wahlsaison gänzlich zu verbieten. Letztes Jahr wurde Midjourney genutzt, um ein virales Fake-Bild von Papst Benedikt zu erstellen, der unerwartet in einer weißen Puffjacke die Straße entlang stolzierte. Einer der engsten Konkurrenten von Midjourney, Stability AI (Hersteller des Open-Source-Programms Stable Diffusion), nahm teil. Engadget hat Midjourney um einen Kommentar zu seiner Abwesenheit gebeten und wir werden diesen Artikel aktualisieren, sobald wir etwas hören.

Unter den „Big Five“ des Silicon Valley fehlt nur Apple. Dies kann jedoch dadurch erklärt werden, dass der iPhone-Hersteller noch keine generativen KI-Produkte auf den Markt gebracht hat und auch keine Social-Media-Plattform betreibt, auf der Deepfakes verbreitet werden könnten. Unabhängig davon haben wir Apple PR zur Klärung kontaktiert, hatten aber zum Zeitpunkt der Veröffentlichung noch keine Antwort erhalten.

Obwohl die allgemeinen Grundsätze, auf die sich die 20 Unternehmen geeinigt haben, wie ein vielversprechender Anfang klingen, bleibt abzuwarten, ob ein loses Paket von Vereinbarungen ohne verbindliche Durchsetzung ausreichen wird, um ein Albtraumszenario zu bekämpfen, in dem die schlechten Akteure der Welt generative KI nutzen, um die öffentliche Meinung zu beeinflussen und zu beeinflussen wählen aggressiv antidemokratische Kandidaten – in den USA und anderswo.

„Die Sprache ist nicht ganz so stark, wie man hätte erwarten können“, sagte Rachel Orey, leitende stellvertretende Direktorin des Wahlprojekts am Bipartisan Policy Center. erzählt Die Associated Press am Freitag. „Ich denke, wir sollten Kredit geben, wo Kredit gebührt, und anerkennen, dass die Unternehmen ein berechtigtes Interesse daran haben, dass ihre Instrumente nicht dazu verwendet werden, freie und faire Wahlen zu untergraben. Allerdings ist es freiwillig und wir werden im Auge behalten, ob sie sich daran halten.“

KI-generierte Deepfakes wurden bereits bei der US-Präsidentschaftswahl eingesetzt. Bereits im April 2023 schaltete das Republikanische Nationalkomitee (RNC) eine Anzeige mit KI-generierten Bildern von Präsident Joe Biden und Vizepräsidentin Kamala Harris. Der Kampagne für Ron DeSantis, der inzwischen aus der GOP-Vorwahl ausgeschieden ist, folgten im Juni 2023 KI-generierte Bilder des Rivalen und wahrscheinlichen Kandidaten Donald Trump. Beide enthielten leicht zu übersehende Hinweise, dass die Bilder KI-generiert waren.

BOSTON, VEREINIGTE STAATEN – 2. DEZEMBER: Präsident Joe Biden nimmt am 2. Dezember 2022 an einer Telefonbanking-Veranstaltung der International Brotherhood of Electrical Workers (IBEW) in Boston, Massachusetts, für den Wiederwahlkampf von Senator Reverend Raphael Warnock (D-GA) teil.  (Foto von Nathan Posner/Anadolu Agency über Getty Images)BOSTON, VEREINIGTE STAATEN – 2. DEZEMBER: Präsident Joe Biden nimmt am 2. Dezember 2022 an einer Telefonbanking-Veranstaltung der International Brotherhood of Electrical Workers (IBEW) in Boston, Massachusetts, für den Wiederwahlkampf von Senator Reverend Raphael Warnock (D-GA) teil.  (Foto von Nathan Posner/Anadolu Agency über Getty Images)

Im Januar wurden die Wähler in New Hampshire mit einem Robocall begrüßt, bei dem es sich um eine KI-generierte Nachahmung der Stimme von Präsident Biden handelte, in der sie aufgefordert wurden, nicht zu wählen. (Anadolu über Getty Images)

Im Januar nutzten zwei in Texas ansässige Unternehmen eine KI-generierte Fälschung der Stimme von Präsident Biden, um Wähler in New Hampshire per Robocall anzurufen und sie dazu zu drängen, nicht an der Vorwahl des Staates am 23. Januar teilzunehmen. Der Clip wurde mit dem Tool zum Klonen von Stimmen von ElevenLabs erstellt. Nach Angaben des Generalstaatsanwalts des Bundesstaates erreichten sie bis zu 25.000 NH-Wähler. ElevenLabs gehört zu den Unterzeichnern des Pakts.

Die Federal Communication Commission (FCC) hat schnell gehandelt, um weiteren Missbrauch der Voice-Cloning-Technologie bei gefälschten Wahlkampfaufrufen zu verhindern. Anfang dieses Monats stimmte sie einstimmig dafür, KI-generierte Robocalls zu verbieten. Der (scheinbar ewig festgefahrene) US-Kongress hat kein KI-Gesetz verabschiedet. Im Dezember einigte sich die Europäische Union (EU) auf einen weitreichenden Gesetzentwurf zur Entwicklung der Sicherheit im AI Act, der die Regulierungsbemühungen anderer Länder beeinflussen könnte.

„Da die Gesellschaft die Vorteile der KI annimmt, haben wir die Verantwortung, dazu beizutragen, dass diese Tools bei Wahlen nicht als Waffe eingesetzt werden“, schrieb Brad Smith, stellvertretender Vorsitzender und Präsident von Microsoft, in einer Pressemitteilung. „KI hat keine Wahltäuschung verursacht, aber wir müssen sicherstellen, dass sie nicht dazu beiträgt, dass die Täuschung gedeiht.“

source-115

Leave a Reply