Künstler können sich gegen KI wehren, indem sie Kunstgeneratoren von innen heraus töten


Wie können Künstler sich gegen die Launen von Technologieunternehmen wehren, die ihre Arbeit zum Trainieren von KI nutzen wollen? Eine Gruppe von Forschern hat eine neuartige Idee: Ein subtiles Geschenk in die Kunst selbst einzubringen, um den KI-Kunstgenerator von innen heraus zu töten.

Ben Zhao, Professor für Informatik an der University of Chicago und ausgesprochener Kritiker der Data-Scraping-Praktiken der KI, sagte MIT Technology Review Das neue Tool von ihm und seinem Team mit dem Namen „Nightshade“ hält, was es verspricht: Es vergiftet jedes Modell, das Bilder zum Trainieren der KI verwendet. Bislang bestand die einzige Möglichkeit für Künstler, KI-Unternehmen zu bekämpfen, darin, sie zu verklagen oder auf die Entwickler zu hoffen sich an die Opt-out-Aufforderungen des Künstlers zu halten.

Das Tool manipuliert ein Bild auf Pixelebene und verfälscht es auf eine Weise, die mit bloßem Auge nicht erkennbar ist. Sobald genügend dieser überprüften Bilder verwendet werden, um KI wie Stabilitäts-KIs zu trainieren Stabile Diffusion XL, beginnt das gesamte Modell zusammenzubrechen. Nachdem das Team Datenproben in eine SDXL-Version eingefügt hatte, begann das Modell, eine Eingabeaufforderung für „Auto“ anstelle von „Kuh“ zu interpretieren. Ein Hund wurde als Katze interpretiert, während ein Hut in einen Kuchen verwandelt wurde. Ebenso kamen verschiedene Stile völlig schief heraus. Fordert einen „Cartoon“ auf, der Kunst bietet, die an die Impressionisten des 19. Jahrhunderts erinnert.

Es hat auch funktioniert, einzelne Künstler zu verteidigen. Wenn Sie SDXL gebissen haben, ein Gemälde im Stil des berühmten Science-Fiction- und Fantasy-Künstlers Michael Whelan zu schaffen, erschafft das vergiftete Modell etwas, das ihrem Werk weitaus weniger ähnelt.

Abhängig von der Größe des KI-Modells bräuchte man Hunderte oder wahrscheinlich sogar Tausende vergifteter Bilder, um diese seltsamen Halluzinationen zu erzeugen. Dennoch könnte es alle, die neue KI-Kunstgeneratoren entwickeln, dazu zwingen, zweimal darüber nachzudenken, bevor sie Trainingsdaten aus dem Internet verwenden.

Ein Sprecher von Stability AI sagte gegenüber Gizmodo: „Stability AI setzt sich für eine gerechte Darstellung und Reduzierung von Verzerrungen ein“ und fügte hinzu: „Als wir SDXL 1.0 trainieren wollten, haben wir hart daran gearbeitet, dem Modell einen viel vielfältigeren und umfassendenren Datensatz.“ zu geben.“ Dazu gehört die Verwendung ausgefeilter Filter, die ein globales repräsentatives Ergebnis allgemeiner Elemente erzeugen. Wir sind stets auf der Mission, zu lernen und uns zu verbessern, und gehen davon aus, dass nachfolgende Modelle noch wirksamer bei der Vermeidung von Verzerrungen sein werden.“

Welche Werkzeuge haben Künstler, um gegen KI-Training vorzugehen?

Zhao war auch der Anführer des Teams, das bei der Herstellung mitgewirkt hat Glasurein Werkzeug, das eine Kunst „Stilmantel“ erstellen kann Bilder von Künstlern maskieren. Es stört auch die Pixel eines Bildes führt in die Irre KI-Kunstgeneratoren, die versuchen, einen Künstler und seine Arbeit nachzuahmen. Zhao sagte gegenüber MIT Technology Review, dass Nightshade als weiteres Tool in Glaze integriert werden soll, es aber auch auf dem Open-Source-Markt veröffentlicht wird, damit andere Entwickler ähnliche Tools erstellen können.

Andere Forscher haben Einige Möglichkeiten gefunden, Bilder zu immunisieren vor direkter Manipulation durch KI, aber diese Techniken haben die Data-Scraping-Techniken, die zum Training der Kunstgeneratoren verwendet werden, nicht von vornherein gestoppt. Nightshade ist einer der wenigen und möglicherweise kämpferischsten Versuche, Künstlern die Möglichkeit zu geben, ihre Werke zu schützen.

Es gibt auch zunehmende Versuche, echte Bilder von denen zu unterscheiden, die von KI erstellt wurden. Google gehört DeepMind behauptet, eine Wasserzeichen-ID entwickelt zu haben Das kann erkennen, ob ein Bild von KI erstellt wurde, unabhängig davon, wie es manipuliert wurde. Diese Art von Wasserzeichen bewirken im Grunde das Gleiche wie Nightshade: Sie manipulieren Pixel auf eine Weise, die für das bloße Auge nicht wahrnehmbar ist. Einige der größten KI-Unternehmen haben dies getan Versprach, generierte Inhalte mit einem Wasserzeichen zu versehen in Zukunft, aber aktuell suchen mögen Die Metadaten-KI-Labels von Adobe Bieten nicht wirklich ein Maß an echter Transparenz.

Nightshade ist möglicherweise verheerend für Unternehmen, die aktiv die Arbeit von Künstlern nutzen, um ihre KI zu trainieren. wie DeviantArt. Die DeviantArt-Community hatte bereits eine hübsche negative Reaktion Zum eingebauten KI-Kunstgenerator der Website, und wenn genügend Benutzer ihre Bilder vergiften, könnte dies dazu führen, dass Entwickler jede einzelne Instanz vergifteter Bilder manuell finden oder das Training für das gesamte Modell zurücksetzen müssen.

Dennoch kann das Programm keine vorhandenen Modelle wie SDXL oder das ändern Kürzlich veröffentlichtes DALL-3. Diese Models sind alle bereits anhand früherer Arbeiten von Künstlern geschult. Unternehmen wie Stability AI, Midjourney und DeviantArt haben dies getan wurden bereits von Künstlern verklagt für die Nutzung ihrer urheberrechtlich geschützten Arbeit zum Trainieren von KI. Es gibt viele andere Klagen, die sich gegen KI-Entwickler richten Google, MetaUnd OpenAI für die Nutzung urheberrechtlich geschützter Werke ohne Genehmigung. Unternehmen und KI-Befürworter haben argumentiert, dass alle Bücher, Papiere, Bilder und Kunstwerke in den Trainingsdaten unter die faire Nutzung gefallen sind, da generative KI neue Inhalte auf der Grundlage dieser Trainingsdaten erstellt hat.

OpenAI-Entwickler notierten in ihrem Forschungsbericht Dass ihr neuester Kunstgenerator weitaus realistischere Bilder erzeugen kann, da er auf detaillierte Untertitel trainiert ist, die mit den unternehmenseigenen, maßgeschneiderten Tools generiert wurden. Das Unternehmen gab nicht bekannt, wie viele Daten tatsächlich in das Training seines neuen KI-Modells geflossen sind (die meisten KI-Unternehmen sind mittlerweile nicht mehr bereit, etwas zu ihren KI-Trainingsdaten zu sagen), aber die Versuche zur Bekämpfung der KI könnten im Laufe der Zeit eskalieren. Da diese KI-Tools immer ausgereifter werden, benötigen sie immer mehr Daten, um sie zu betreiben, und Künstler sind möglicherweise bereit, noch größere Maßnahmen zu ergreifen, um sie zu bekämpfen.

Update: 24.10.23 um 8:22 Uhr ET: Dieser Beitrag wurde aktualisiert und enthält nun einen Kommentar eines Sprechers von Stability AI.

source-112

Leave a Reply