Britische Schauspieler und Equity kämpfen gegen den Aufstieg KI-gesteuerter Deepfake-Mods

„Ist meine Stimme in der Modding- und Voice-Change-Community verfügbar? Ja. Habe ich Kontrolle darüber, wofür meine Stimme verwendet werden kann? Im Moment nicht.“

David Menkin spielte zuletzt in Final Fantasy 16 die Rolle des Barnabas Tharmr, gefolgt von Arbeiten in Lego Star Wars, Valorant, Assassin’s Creed und mehr. Und wie viele andere Synchronsprecher in der Spielebranche ist er besorgt über den zunehmenden Einsatz von KI.

„KI ist ein Werkzeug, und wie jedes Werkzeug bedarf es einer Regulierung“, sagt Menkin. „Wir möchten lediglich wissen, wofür unsere Stimmen verwendet werden, und die Möglichkeit haben, die Einwilligung zu erteilen oder zu widerrufen, wenn diese Verwendung außerhalb des Rahmens unseres ursprünglichen Vertrags liegt. Und wenn unsere Arbeit dazu führt, dass Ihr KI-Tool Geld verdient, möchten wir eine angemessene Vergütung erhalten.“

Das scheint sicherlich eine berechtigte Bitte zu sein. Viele glauben jedoch, dass die Vorschriften rund um die KI weit hinter der Geschwindigkeit zurückbleiben, mit der die Technologie voranschreitet – etwas, das die britische Schauspielergewerkschaft Equity nun ändern will.

Nachrichtensendung: Ist die Übernahme von Activision Blizzard durch Microsoft nun beschlossene Sache?Auf YouTube ansehen

Der Einsatz von KI bei der Entwicklung von Spielen ist bereits ein großes Thema – wie Chris Tapsell von Eurogamer von der GDC berichtete, insbesondere in den Bereichen Kunst und Drehbuchschreiben. Für Synchronsprecher stellt dies eine Reihe von Problemen dar – einschließlich des besorgniserregenden Trends, die Stimmen von Schauspielern in Deepfakes ohne Zustimmung zu verwenden.

Ein Tweet Anfang dieses Monats vom Skyrim-Modder Robbie92_ betonte das Problem, dass die Stimmen von Schauspielern von Modding-Communities für pornografische Inhalte missbraucht werden. „Als Mitglied der Skyrim-Modding-Szene bin ich zutiefst besorgt über die Praxis, KI-Stimmenklonen zu verwenden, um nicht einvernehmliche Deepfake-Pornoinhalte zu erstellen und zu verbreiten“, schrieben sie, einschließlich einer Liste der betroffenen Darsteller.

„Ihre Darbietungen wurden auf schändliche Weise zweckentfremdet, in KI-Klon-Tools eingespeist und dazu verwendet, gefälschte Sprachclips dieser Darsteller zu erstellen, die explizite Dialoge rezitieren, die ihrer Natur nach pornographisch sind. Ich glaube, dass die Schaffung und Verbreitung von Deepfake-Pornografie unverhohlen böse ist und dass wir als Gemeinschaft die Verantwortung haben, zu handeln.“

Einige dieser Synchronsprecher reagierten ungläubig auf den Tweet, scheinbar ohne zu wissen, dass ihre Stimmen verwendet wurden. „Was zum Teufel?!“ antwortete der Synchronsprecher von Mortal Kombat, Richard Epcar.

Der Tweet nennt ausdrücklich ElevenLabs, ein KI-Klon-Tool, das – seinen Angaben zufolge Nutzungsbedingungen – gibt an, dass Benutzer entweder der Ersteller und Eigentümer der verwendeten Dateien sind oder über die schriftliche Zustimmung jeder identifizierbaren Einzelperson in den Dateien verfügen. ElevenLabs reagierte nicht auf die Bitte von Eurogamer um einen Kommentar.

Offensichtlich wird die Einwilligung nicht immer erteilt.

Nach der Erstellung werden Mods mit KI-geklonten Stimmen auf der beliebten Mod-Site Nexus Mods gehostet. Als Eurogamer Nexus Mods kontaktierte, wurden wir zu einem weitergeleitet Artikel vom April Darin wird die Haltung der Website zu KI-generierten Inhalten im Modding detailliert beschrieben.

„Wenn Sie sich als Inhaltsersteller dafür entscheiden, KI-generierte Inhalte in Ihre Modding-Projekte einzubeziehen, verstößt das nicht gegen unsere Community-Regeln“, heißt es darin. „Wenn wir jedoch eine glaubwürdige Beschwerde von einer Partei erhalten, die der Meinung ist, dass Ihre Arbeit ihnen schadet – das könnte der Synchronsprecher oder die Stelle sein, die die Rechte an der Figur/den Vermögenswerten besitzt –, werden wir den Inhalt gegebenenfalls entfernen.“

„Um Probleme mit Ihren Mods zu vermeiden, empfehlen wir Ihnen, die Verwendung dieser Tools zu vermeiden, es sei denn, Sie haben die ausdrückliche Erlaubnis zur Nutzung aller Assets. Dies gilt insbesondere für KI-generierte Sprachausgabe, umfasst aber auch Bilder, Modelle, Code und alles andere, was Sie mit dieser Technologie erstellen können.“

Damit bleibt es jedoch den Schauspielern selbst überlassen, die Verwendung ihrer Stimme in nicht lizenzierten Spiel-Mods anzufechten, und nicht – derzeit – einer umfassenderen Regulierung.

Hier ist Equity UK ins Spiel gekommen. Letzten Monat veröffentlichte Equity seine „bahnbrechendes KI-Toolkit um Künstler vor einem Anstieg unregulierter Technologie zu schützen.“

Dieses Toolkit wurde in Zusammenarbeit mit der Expertin für geistiges Eigentum, Dr. Mathilde Pavis, erstellt, das einen „ethischen Einsatz von KI“ darlegt und Vorlagen für Künstler zur Durchsetzung ihrer gesetzlichen Rechte bereitstellt.

Darüber hinaus hat Equity dringend staatliche Maßnahmen gegen das sogenannte „Performance-Klonen“ gefordert, definiert als: „der Prozess der Schaffung einer synthetischen Performance durch Aufzeichnung, Verwendung oder Reproduktion der Performance, Stimme oder des Abbilds eines Künstlers durch maschinelle Lernsysteme und gleichwertige Technologie“.

„Equity bedeutet, Maßnahmen zu ergreifen und unseren Mitgliedern die Instrumente an die Hand zu geben, die sie benötigen, um ihre gesetzlichen Rechte zu schützen.“

„Da der Einsatz von KI in der gesamten Unterhaltungsbranche zunimmt, ergreift Equity Maßnahmen und stellt unseren Mitgliedern die Tools zur Verfügung, die sie zum Schutz ihrer gesetzlichen Rechte benötigen“, sagte Liam Budd, Industriebeauftragter für neue Medien bei Equity.

„Wir sind stolz darauf, mit der Erstellung eines bahnbrechenden Muster-KI-Vertrags und der Festlegung neuer Branchenstandards eine Vorreiterrolle zu übernehmen. Während Equity weiterhin mit Produzenten in der gesamten Unterhaltungsbranche zusammenarbeiten wird, muss die Regierung mit robusten Maßnahmen eingreifen, um den zunehmenden Einsatz von KI ordnungsgemäß zu regulieren.“

Bereits im März 2023 verpflichtete sich das Amt für geistiges Eigentum, bis zum Sommer einen Verhaltenskodex für generative KI zu erstellen. Die Regierung berät auch über einen innovationsfreundlichen Ansatz zur KI-Regulierung, wie in a dargelegt aktuelles Whitepaper.

Für Gerechtigkeit legt das Vision Statement in seinem Toolkit neue Branchenstandards fest und besagt, dass Künstler das Recht haben:

  1. Einwilligung (und nicht Einwilligung) für vergangene, aktuelle und zukünftige Leistungen
  2. Lizenzieren Sie ihre Leistung oder ihr Abbild auf persönlicher, nicht exklusiver und zeitlich begrenzter Basis
  3. identifiziert werden und einer herabwürdigenden Behandlung ihrer Leistung und Arbeit widersprechen
  4. transparente Informationen
  5. sinnvolle Beratung
  6. faire und verhältnismäßige Vergütung
  7. gleichen Zugang und gleiche Behandlung
  8. im Rahmen eines Tarifvertrags verpflichtet werden

Menkin ist Teil eines Teams von Akteuren, die mit Equity zusammenarbeiten, um das Bewusstsein für diesen Bereich zu schärfen.

„Letztes Jahr haben wir uns mit klaren Beispielen an UKIE gewandt, warum wir eine branchenweite Regulierung, aktualisierte Urheberrechtsgesetze, einen klareren Rahmen für geistiges Eigentum und Verhaltenskodizes brauchen, aber die Antwort blieb leider aus“, sagt er.

Seitdem wurden auf der diesjährigen Aktienkonferenz Anträge zur stärkeren Fokussierung auf Spiele und KI eingebracht und mit Mehrheit angenommen.

„Die Arbeit wird getan, aber die Gesetzgebung braucht Zeit“, sagt Menkin. „In der Zwischenzeit müssen wir uns weiterbilden, und deshalb hat Equity das AI Toolkit herausgebracht, mit Leitfäden zum Verständnis der KI-Landschaft und unserer Rechte sowie Vorlagen für Verträge, wenn die Sprache unserer Kunden und Arbeitgeber nicht klar genug ist.“

Ähnliche Initiativen werden auch auf der ganzen Welt gestartet, unter anderem in Amerika mit SAG-AFTRA und der National Association of Voice Actors (NAVA).

Menkin befürwortet eine stärkere Regulierung des Einsatzes von KI im Gaming.

„Häufig wird uns gesagt, dass es keine andere Wahl gibt, als alle unsere Rechte aufzugeben, ohne eine klare Vorstellung davon zu haben, wofür genau unsere Arbeit verwendet wird.“

„Spiele und KI glauben an Selbstregulierung“, sagt er. „Unternehmen sprechen oft von Diversitätsinitiativen und Verhaltenskodizes, aber die Selbstregulierung kommt nur selten denjenigen auf den unteren Stufen der Leiter zugute, insbesondere Subunternehmern wie Schauspielern, Autoren, Komponisten usw. Meistens wird uns gesagt, dass es keine andere Wahl gibt, als alle unsere Rechte aufzugeben, ohne eine klare Vorstellung davon zu haben, wofür genau unsere Arbeit verwendet wird.“

„Im Zeitalter der KI können wir diese Bedingungen nicht länger akzeptieren.“

Die mit dem BAFTA-Preis ausgezeichnete Synchronsprecherin Jane Perry, die für ihre Arbeit in Returnal und Hitman bekannt ist, glaubt ebenfalls, dass ein Leitungsgremium erforderlich ist, um den Einsatz von KI zu überwachen.

„Ich bin mir der durch Equity angebotenen Unterstützung bewusst. Ich denke, sie tun ihr Bestes, innerhalb des hier im Vereinigten Königreich bestehenden gesetzlichen Rahmens. Wir sind nicht in der Lage, zu Arbeitskampfmaßnahmen aufzurufen, wie es unsere amerikanischen Kollegen tun“, sagt sie.

„Ich habe das Gefühl, dass uns zwar Anweisungen gegeben werden, worauf wir in den Verträgen, die wir unterzeichnen, achten müssen, und dass wir Hinweise zu Urheberrechtsgesetzen usw. erhalten, aber meiner Meinung nach fehlt, und das ist entscheidend, eine Art Leitungsgremium, das den Einsatz von KI effektiv überwachen und überwachen kann.“

Sie fügt hinzu: „Der Einsatz von KI hat sich schneller entwickelt als unsere Fähigkeit, Grenzen dafür zu schaffen. Angesichts des Mangels an Ressourcen bei British Equity gibt es keine Möglichkeit, als dieses Leitungsgremium zu agieren. Es wäre großartig, wenn unsere Regierung schnell handeln und dabei Hilfe leisten würde.“

Perry ist weiterhin besorgt über die Zukunft der KI und was sie für Synchronsprecher bedeuten wird. Zu ihrer Gaming-Erfahrung gehört auch die Interaktion mit der leidenschaftlichen Community der Branche, aber diese wäre überflüssig, wenn die KI-Sprachausgabe durchstarten sollte.

„Als Schauspielerin ist es mir eine Freude, diese Fragen zu beantworten und auf das scheinbar sehr zwingende Interesse an dem einzugehen, was sich hinter den Kulissen abspielt“, sagt sie.

„Der Klang einer Stimme hat eine Biografie in sich, die dem Zuhörer vielleicht bewusst ist oder auch nicht. Und doch werde ich es nicht sein.“

„Ich frage mich oft: Wenn die Zeit gekommen ist, in der „meine“ Charaktere von einer KI-generierten Version meiner Stimme gesprochen werden, wer wird diese Fragen beantworten? Die Entscheidungen der Charaktere und der Ausdruck von Hoffnungen, Ängsten und Wünschen werden nicht durch meine eigene gelebte Erfahrung beeinflusst. Ich werde nicht die Möglichkeit haben, in meinem eigenen Herzen und meiner Seele zu suchen, wie ich eine Szene spielen oder wie ich die in der Erzählung des Spiels etablierten Beziehungen aufbauen und darauf reagieren soll.

„Ich werde scheinbar keinen Einfluss auf die Charaktererschaffung gehabt haben. Und doch wird es meine Stimme sein, deren Klang mitschwingt und in Beziehung zu allem steht, was mir im Laufe meines ganzen Lebens widerfahren ist. Der Klang einer Stimme hat eine Biographie in sich, die dem Zuhörer vielleicht bewusst ist oder auch nicht. Und doch werde ich es nicht sein.“

Sie fügt hinzu, dass KI „nicht nur schlecht“ sei und auch für bestimmte andere Berufe und Branchen geeignet sei. „Aber wir müssen diesen Wunsch, unseren eigenen Schwanz zu fressen, in Frage stellen“, sagt sie.

„Ich verstehe, dass es Spaß macht und aufregend ist, mit KI zu spielen und zu sehen, wie weit wir mit den Stimmen und Gesichtern von Menschen kommen können. Aber seien wir uns der harten Tatsache bewusst, dass es alle möglichen Probleme mit sich bringen wird, wenn man den Menschen die Arbeit wegnimmt: finanzielle Probleme sind eines davon und die Sinnhaftigkeit ein anderes. Das sehen wir bereits. In der Zwischenzeit steigen die Gewinnmargen für bereits aufgeblähte Unternehmen.“

Dann gibt es noch mehr zu tun. Aber Equity – und andere Gewerkschaften – beginnen sich der tatsächlichen Gefahr bewusst zu werden, die KI für Akteure darstellt. Doch solange keine ordnungsgemäße Regulierung durchgesetzt wird, liegt die Verantwortung, sich selbst zu schützen, leider bei den Akteuren.


source site-59

Leave a Reply