Der Biden Deepfake Robocall ist nur der Anfang


„In der amerikanischen Politik ist Desinformation leider alltäglich geworden. Aber jetzt schaffen Fehlinformationen und Desinformationen in Verbindung mit neuen generativen KI-Tools eine beispiellose Bedrohung, auf die wir schlecht vorbereitet sind“, sagte Clarke am Montag in einer Erklärung gegenüber WIRED. „Dies ist ein Problem, das sowohl Demokraten als auch Republikaner gemeinsam angehen sollten. Der Kongress muss das in den Griff bekommen, bevor die Dinge außer Kontrolle geraten.“

Interessengruppen wie Public Citizen haben bei der Bundeswahlkommission eine Petition eingereicht, um neue Regeln zur Offenlegung politischer Werbung zu erlassen, ähnlich wie Clarke und Klobuchar vorgeschlagen haben, haben jedoch noch keine formelle Entscheidung getroffen. Anfang dieses Monats sagte der FEC-Vorsitzende Sean Cooksey, ein Republikaner Die Washington Post dass die Kommission plant, bis zum Frühsommer eine Entscheidung zu treffen. Bis dahin wird die GOP wahrscheinlich bereits Trump als ihren Kandidaten ausgewählt haben und die Parlamentswahlen werden in vollem Gange sein.

„Ob Sie Demokrat oder Republikaner sind, niemand möchte gefälschte Anzeigen oder Robocalls sehen, bei denen Sie nicht einmal erkennen können, ob es Ihr Kandidat ist oder nicht“, sagte Klobuchar am Montag gegenüber WIRED. „Wir brauchen Maßnahmen des Bundes, um sicherzustellen, dass diese leistungsstarke Technologie nicht dazu genutzt wird, Wähler zu täuschen und Desinformation zu verbreiten.“

Laut Hany Farid, Professor an der UC Berkeley School of Information, sind Audiofälschungen besonders schädlich, da ihnen im Gegensatz zu gefälschten Fotos oder Videos viele visuelle Signale fehlen, die jemandem helfen könnten, zu erkennen, dass sie verändert wurden. „Bei Robocalls ist die Audioqualität auf einem Telefon nicht besonders gut, und daher ist es einfacher, Leute mit gefälschten Audiodaten auszutricksen.“

Farid befürchtet auch, dass Telefonanrufe im Gegensatz zu gefälschten Posts in sozialen Medien eher eine bereits ältere Bevölkerungsgruppe erreichen würden anfällig für Betrug.

„Man könnte argumentieren, dass viele Leute herausgefunden haben, dass dieses Audio gefälscht war, aber das Problem bei einer Vorwahl in einem Bundesstaat ist, dass selbst ein paar tausend Stimmen einen Einfluss auf die Ergebnisse haben könnten“, sagt er. „Natürlich könnte diese Art der Wahleinmischung ohne Deepfakes durchgeführt werden, aber die Sorge besteht darin, dass KI-gestützte Deepfakes diese Kampagnen effektiver und einfacher durchzuführen machen.“

Die konkrete Regulierung hinkt weitgehend hinterher, auch wenn Deepfakes wie die von Robocall billigere und einfachere Produktion geworden sind, sagt Sam Gregory, Programmdirektor bei Witness, einer gemeinnützigen Organisation, die Menschen dabei unterstützt, Technologie zur Förderung der Menschenrechte einzusetzen. „Es klingt nicht mehr wie ein Roboter“, sagt er.

„Die Leute in diesem Bereich haben wirklich damit gerungen, wie man Audio markiert, um zu zeigen, dass es synthetischer Herkunft ist“, sagt er. „Man kann die Leute zum Beispiel dazu verpflichten, am Anfang eines Audiostücks einen Haftungsausschluss zu platzieren, der besagt, dass es mit KI erstellt wurde. Wenn Sie ein schlechter Schauspieler sind oder jemand, der einen betrügerischen Robocall tätigt, tun Sie das offensichtlich nicht.“

Selbst wenn ein Audioinhalt mit einem Wasserzeichen versehen ist, kann dies auf eine Weise geschehen, die für eine Maschine, aber nicht unbedingt für einen normalen Menschen erkennbar ist, sagt Claire Leibowicz, Leiterin der Medienintegrität bei der Partnership on AI. Und dies hängt immer noch vom guten Willen der Plattformen ab, die zur Generierung des Deepfake-Audios verwendet werden. „Wir haben nicht herausgefunden, was es bedeutet, dass diese Tools Open Source für diejenigen sind, die das Gesetz brechen wollen“, fügt sie hinzu.

source-114

Leave a Reply