Virale Deepfake-Videos der Familie Le Pen erinnern daran, dass die Moderation von Inhalten vor den EU-Wahlen immer noch nicht auf dem neuesten Stand ist


Deepfakes von jungen Frauen, die angeblich Mitglieder der Familie Le Pen sind und für rechtsextreme Parteien in Frankreich werben, verbreiteten sich im Internet viral und führten zu einer Eskalation der Debatte über die Wirksamkeit der Moderation von Inhalten vor den EU-Wahlen im Juni.

Angesichts der jüngsten Meinungsumfragen, die den Aufstieg rechtsextremer Gruppen vorhersagten, verbreitete sich eine Reihe gefälschter Videos viral.

Sie gaben vor, junge Mitglieder der Le Pen-Familie beim Tanzen in Unterwäsche, am Strand oder beim Skifahren zu zeigen, während sie über EU-Wahlen sprachen und sich über farbige Menschen in Frankreich lustig machten.

Die in den Umfragen führende rechtsextreme französische Partei Rassemblement National (ID) hat Jordan Bardella zum Spitzenkandidaten der Partei für die EU-Wahlen ernannt, während Marion Maréchal, die Nichte von Marine Le Pen, die Spitzenkandidatin für Reconquête! ist. (ECR).

In den letzten Wochen häuften sich auf TikTok gefälschte Videos, die angeblich von Le Pens Nichten stammen, und einige von ihnen wurden über zwei Millionen Mal angesehen.

Sie zeigen drei Nichten der Familie Le Pen, Amandine Le Pen, Chloé Le Pen und Lena Maréchal Le Pen, die nicht existieren.

Jugendliche Gesichter von Marine Le Pen und Marion Maréchal wurden auf Videos geschnitten, die echten weiblichen Influencern gestohlen wurden.

Die viralen Deepfakes schienen die beiden rechtsextremen Parteien zu bewerben und erwähnten mehrfach die EU-Wahlen.

Zumindest einige der TikTok-Konten wurden nach Beobachtungen von Euractiv am Dienstag (16. April) gelöscht.

Le Pens Familie sagte, sie sei „nicht sehr zufrieden“ mit den Fake-Accounts, während Reconquête! hat den Inhalt auf TikTok gemeldet.

Ein anonymer Betreiber des Kontos von Lena Marechal begründete die Maßnahme als „soziales Experiment“, das „nichts mit Politik zu tun“ habe, sagte BFM TV.

„[This is] das Kleid, das ich für Jordan tragen werde [Bardella]„Der Sieg der Nation“, heißt es in einem gefälschten Video von Amandine Le Pen, die sich als Jeanne d’Arc verkleidet, eine französische historische Persönlichkeit, auf die sich die Nationale Rallye oft bezieht.

„Wenn man durch Paris läuft, sieht man mehr Schleier als Baguettes“ oder „Mohamed ist der Typ, der die Nationale Rallye beleidigt, aber in meinen DMs landet“, sagte die spärlich bekleidete falsche Nichte.

Bardella sagte Dabei handelte es sich am Samstag (13. April) im BFM TV um einen „böswilligen Einsatz“ von KI. Der EU-Wahlkandidat forderte eine stärkere Regulierung von KI-gestützten Inhalten.

Die Ironie

Ein Gefühl der Ironie liegt in der Situation, seit nationale Abgeordnete von Nationally Rally gegen eine Bestimmung gestimmt haben, die die Online-Veröffentlichung von KI-gestützten Deepfakes ohne Zustimmung verbietet. sagte Frankreichs Digital-Außenministerin Marina Ferrari am Montag (15. April).

Die Nationalversammlung und linke Parteien dagegen Frankreichs Dach-Digitalgesetzentwurf letzte Woche in der Nationalversammlung wegen Bedenken hinsichtlich „autoritärer Maßnahmen“.

Mit dem SREN-Gesetz soll neben anderen gesetzgeberischen Zielen das wegweisende EU-Gesetz zur Moderation von Online-Inhalten, das Digital Services Act (DSA), in die französische Gesetzgebung übernommen werden.

Entwicklungsrückstand

Frankreich, zusammen mit fast einem Drittel der EU-Mitgliedstaaten verspäten sich trotz der bevorstehenden EU-Wahlen im Juni mit der Umsetzung dieses bahnbrechenden Gesetzes. Sie sollten ihre koordinierende Verwaltungsbehörde bis zum 17. Februar 2024 benennen.

Diese nationalen Koordinierungsbehörden haben wiederum die Aufgabe, Organisationen zu benennen, die für die Meldung illegaler Inhalte auf Plattformen zuständig sind, bekannt als „vertrauenswürdige Flagger.

Plattformen müssen Moderationsentscheidungen für von diesen Organisationen gemeldete Inhalte priorisieren, zu denen auch politische Inhalte wie die Videos von Le Pens falschen Nichten gehören könnten.

Obwohl Frankreich seine audiovisuelle Behörde Arcom noch nicht offiziell zur DSA-Koordinierungsbehörde ernannt hat, hat die Behörde damit begonnen, Anträge für vertrauenswürdige Flagger zu sammeln.

Die wirklichen Herausforderungen für vertrauenswürdige Hinweisgeber werden auf lange Sicht die Rekrutierung, Schulung und Sicherung der Budgets sein, um einsatzbereit zu sein, sagte Julie Carel, Partnerin bei der französischen Anwaltskanzlei Momentum Avocats, gegenüber Euractiv.

Carel sieht eine „gesetzliche Latenzzeit“ von der offiziellen Benennung von Arcom bis zur Auswahl der vertrauenswürdigen Melder sowie eine „operative Latenzzeit“ vor, in der Organisationen ihre Moderationsteams schulen müssen.

DSA-Durchsetzung

Trotz Verzögerungen weist Carel darauf hin, dass das DSA derzeit in Kraft ist. Auch wenn nationales Recht noch nicht angepasst wurde, sind Unternehmen aufgrund der unmittelbaren Anwendung von EU-Rechtsakten dennoch daran gebunden.

Doch die viralen Videos zeigen, dass die Content-Moderation trotz bemerkenswerter Vorfälle noch nicht perfekt ist.

Im September 2023 verbreitete sich wenige Tage vor der slowakischen Parlamentswahl wie ein Lauffeuer ein Audioclip-Deepfake von Michal Šimečka (Progressive Slowakei, Renew), in dem der Kandidat dargestellt wurde, er habe zugegeben, die Wahl manipuliert zu haben. Manche behaupten das beeinflusste die Abstimmung zugunsten seines Gegners Robert Fico (Smer).

Um auf die wachsende Besorgnis über Wahlmanipulation durch Deepfakes zu reagieren, haben 20 Plattformen verpflichtet „Bekämpfung des betrügerischen Einsatzes von KI bei den Wahlen 2024“ weltweit im Februar.

Getrennt davon die EU-Exekutive Generative künstliche Intelligenz genannt als Risiko für die Integrität des Wahlprozesses in seinen DSA-Richtlinien.

Doch im März untersuchte die Europäische Kommission noch neun der größten Plattformen in der EU auf ihren Einsatz generativer künstlicher Intelligenz, um die Einhaltung des DSA zu bewerten.

[Edited by Rajnish Singh]

Lesen Sie mehr mit Euractiv



source-127

Leave a Reply