Künstler wollen KI mit Datenvergiftungssoftware und rechtlichen Schritten vereiteln

Da der Einsatz künstlicher Intelligenz (KI) den kreativen Medienbereich – insbesondere Kunst und Design – durchdrungen hat, scheint die Definition von geistigem Eigentum (IP) zu sein sich weiterentwickeln in Echtzeit, da es immer schwieriger wird zu verstehen, was ein Plagiat ist.

Im vergangenen Jahr haben KI-gesteuerte Kunstplattformen die Grenzen von IP-Rechten durch die Nutzung umfangreicher Datensätze erweitert Ausbildungoft ohne die ausdrückliche Genehmigung der Künstler, die die Originalwerke geschaffen haben.

Beispielsweise bieten Plattformen wie DALL-E von OpenAI und der Dienst von Midjourney Abonnementmodelle an und monetarisieren damit indirekt das urheberrechtlich geschützte Material, aus dem ihre Trainingsdatensätze bestehen.

In diesem Zusammenhang ist eine wichtige Frage aufgetaucht: „Funktionieren diese Plattformen im Einklang mit den Normen der ‚Fair Use‘-Doktrin, die in ihrer aktuellen Fassung die Nutzung urheberrechtlich geschützter Werke für Kritik, Kommentare, Berichterstattung, Lehre und Forschung zulässt?“ Zwecke?“

Kürzlich hat Getty Images, ein großer Anbieter von Archivfotos, eingeleitet Klagen gegen Stability AI sowohl in den Vereinigten Staaten als auch im Vereinigten Königreich. Getty hat dem visuellen Generierungsprogramm Stability AI, Stable Diffusion, vorgeworfen, gegen Urheber- und Markengesetze verstoßen zu haben, indem es Bilder aus seinem Katalog ohne Genehmigung verwendet, insbesondere solche mit Wasserzeichen.

Allerdings müssen die Kläger umfassendere Beweise zur Untermauerung ihrer Ansprüche vorlegen, was sich als schwierig erweisen könnte, da die KI von Stable Diffusion auf einem riesigen Cache von über 12 Milliarden komprimierten Bildern trainiert wurde.

In einem anderen verwandten Fall handelt es sich um die Künstlerinnen Sarah Andersen, Kelly McKernan und Karla Ortiz eingeleitet Im Januar wurde ein Gerichtsverfahren gegen Stable Diffusion, Midjourney und die Online-Kunstgemeinschaft DeviantArt eingeleitet, in dem den Organisationen vorgeworfen wurde, die Rechte von „Millionen von Künstlern“ zu verletzen, indem sie ihre KI-Tools mit fünf Milliarden Bildern trainierten, die „ohne Zustimmung der ursprünglichen Künstler“ aus dem Internet geschabt wurden .“

KI-Vergiftungssoftware

Als Reaktion auf die Beschwerden von Künstlern, deren Werke von KI plagiiert wurden, haben Forscher der University of Chicago kürzlich ein Tool namens Nightshade veröffentlicht, das es Künstlern ermöglicht, nicht erkennbare Änderungen in ihre Kunstwerke zu integrieren.

Diese Modifikationen sind zwar für das menschliche Auge unsichtbar, können jedoch Gift KI-Trainingsdaten. Darüber hinaus können subtile Pixeländerungen die Lernprozesse von KI-Modellen stören und zu einer falschen Kennzeichnung und Erkennung führen.

Schon eine Handvoll dieser Bilder kann den Lernprozess der KI beeinträchtigen. Ein kürzlich durchgeführtes Experiment hat beispielsweise gezeigt, dass die Einführung einiger Dutzend falsch dargestellter Bilder ausreicht beeinträchtigen Die Leistung der stabilen Diffusion wird erheblich gesteigert.

Das Team der University of Chicago hatte zuvor ein eigenes Tool namens Glaze entwickelt, das den Stil eines Künstlers vor der KI-Erkennung verbergen sollte. Ihr neues Angebot, Nightshade, soll in Glaze integriert werden, um seine Fähigkeiten weiter zu erweitern.

In einem aktuellen InterviewBen Zhao, leitender Entwickler von Nightshade, sagte, dass Tools wie seines dazu beitragen werden, Unternehmen zu ethischeren Praktiken zu bewegen. „Ich denke, dass es für Unternehmen derzeit kaum einen Anreiz gibt, ihre bisherige Arbeitsweise zu ändern – das heißt: ‚Alles unter der Sonne gehört uns, und Sie können nichts dagegen tun.‘ Ich denke, wir geben ihnen nur einen kleinen Anstoß in Richtung Ethik, und wir werden sehen, ob es tatsächlich passiert“, fügte er hinzu.

Ein Beispiel für Kunstdatensätze zur Nachtschattenvergiftung. Quelle: HyperAllergic

Trotz des Potenzials von Nightshade, zukünftige Kunstwerke zu schützen, stellte Zhao fest, dass die Plattform die Auswirkungen auf Kunstwerke, die bereits von älteren KI-Modellen verarbeitet wurden, nicht rückgängig machen kann. Darüber hinaus bestehen Bedenken hinsichtlich eines möglichen Missbrauchs der Software für böswillige Zwecke, beispielsweise der Kontamination großer digitaler Bildgeneratoren.

Allerdings ist Zhao zuversichtlich, dass dieser letztere Anwendungsfall eine Herausforderung darstellen würde, da dafür Tausende vergifteter Proben erforderlich wären.

Aktuell: KI und Pensionsfonds: Ist KI eine sichere Wahl für die Altersvorsorge?

Während die unabhängige Künstlerin Autumn Beverly davon überzeugt ist, dass Tools wie Nightshade und Glaze es ihr ermöglicht haben, ihre Arbeiten erneut online zu teilen, ohne Angst vor Missbrauch haben zu müssen, glaubt Marian Mazzone, Expertin am Art and Artificial Intelligence Laboratory der Rutgers University, dass solche Tools dies möglicherweise nicht tun bieten eine dauerhafte Lösung und schlagen vor, dass Künstler rechtliche Reformen durchführen sollten, um anhaltende Probleme im Zusammenhang mit KI-generierten Bildern anzugehen.

Asif Kamal, CEO von Artfi, einer Web3-Lösung für Investitionen in bildende Kunst, sagte gegenüber Cointelegraph, dass Schöpfer, die KI-Tools zur Datenvergiftung verwenden, traditionelle Vorstellungen von Eigentum und Urheberschaft in Frage stellen und gleichzeitig eine Neubewertung des Urheberrechts und der kreativen Kontrolle anstoßen:

„Der Einsatz von Datenvergiftungstools wirft rechtliche und ethische Fragen zum KI-Training auf öffentlich zugänglichen digitalen Kunstwerken auf. Es wird über Themen wie Urheberrecht, faire Nutzung und Respektierung der Rechte der ursprünglichen Urheber debattiert. Allerdings arbeiten KI-Unternehmen derzeit an verschiedenen Strategien, um die Auswirkungen von Datenvergiftungstools wie Nightshade und Glaze auf ihre Modelle für maschinelles Lernen zu bekämpfen. Dazu gehört die Verbesserung ihrer Abwehrmaßnahmen, die Verbesserung der Datenvalidierung und die Entwicklung robusterer Algorithmen zur Identifizierung und Eindämmung von Pixelvergiftungsstrategien.“

Yubo Ruan, Gründer von ParaX, einer Web3-Plattform, die auf Kontoabstraktion und wissensfreien virtuellen Maschinen basiert, sagte gegenüber Cointelegraph, dass, da Künstler weiterhin KI-vergiftende Tools einsetzen, eine Neuinterpretation dessen erfolgen muss, was digitale Kunst ausmacht und wie ihr Besitz und Eigentum erfolgt Originalität bestimmt werden.

„Wir brauchen eine Neubewertung der heutigen Rahmenbedingungen für geistiges Eigentum, um der Komplexität Rechnung zu tragen, die diese Technologien mit sich bringen. Der Einsatz von Datenvergiftungstools wirft rechtliche Bedenken hinsichtlich Einwilligung und Urheberrechtsverletzungen sowie ethische Probleme im Zusammenhang mit der Nutzung öffentlicher Kunstwerke auf, ohne dass die ursprünglichen Eigentümer angemessen entschädigt oder anerkannt werden“, sagte er.

IP-Gesetze bis an ihre Grenzen ausreizen

Über den Bereich der digitalen Kunst hinaus ist der Einfluss generativer KI auch in anderen Bereichen erkennbar, darunter in der Wissenschaft und bei videobasierten Inhalten. Im Juli reichte die Komikerin Sarah Silverman zusammen mit den Autoren Christopher Golden und Richard Kadrey vor einem US-Bezirksgericht rechtliche Schritte gegen OpenAI und Meta ein. anklagen die Tech-Giganten der Urheberrechtsverletzung.

In dem Rechtsstreit wird behauptet, dass sowohl ChatGPT von OpenAI als auch Llama von Meta anhand von Datensätzen trainiert wurden, die von illegalen „Schattenbibliotheks“-Seiten stammten und angeblich die urheberrechtlich geschützten Werke der Kläger enthielten. In den Klagen wird auf bestimmte Fälle hingewiesen, in denen ChatGPT seine Bücher zusammengefasst hat, ohne Informationen zur Urheberrechtsverwaltung anzugeben, und dabei die von Silverman verwendet hat BettnässerGoldens Araratund Kadreys Sandmann Slim als Schlüsselbeispiele.

Unabhängig davon wird in der Klage gegen Meta behauptet, dass die Llama-Modelle des Unternehmens mithilfe von Datensätzen ähnlich fragwürdiger Herkunft trainiert wurden, wobei insbesondere The Pile von EleutherAI zitiert wird, das Berichten zufolge Inhalte des privaten Trackers Bibliotik enthält.

Neu: Echte KI-Anwendungsfälle in Krypto: Kryptobasierte KI-Märkte und KI-Finanzanalyse

Die Urheber beteuerten, dass sie einer solchen Nutzung ihrer Werke nie zugestimmt hätten und fordern daher Schadensersatz und Rückerstattung.

Während wir uns auf eine Zukunft zubewegen, die von KI-Technologie bestimmt wird, scheinen sich viele Unternehmen mit der Unermesslichkeit des technologischen Angebots auseinanderzusetzen, das dieses aufkeimende Paradigma bietet.

Während Unternehmen wie Adobe begonnen haben verwenden Unternehmen wie Google und Microsoft haben erklärt, dass sie bereit sind, sich jeglicher rechtlicher Auseinandersetzung zu stellen, falls Kunden wegen Urheberrechtsverletzung bei der Verwendung ihrer generativen KI-Produkte verklagt werden.