Nightshade Data Poisoning Tool könnte Künstlern beim Kampf gegen KI helfen


Ein neues Bilddatentool namens Nightshade wurde von Informatikforschern entwickelt, um Daten zu „vergiften“, die für Text-zu-Bild-Modelle bestimmt sind. Nightshade fügt unmerkliche Änderungen an den online hochgeladenen Bildern der Ersteller hinzu. Wenn ein Datenschaber anschließend eines dieser veränderten Bilder zu seinem Datensatz hinzufügt, führt er „unerwartete Verhaltensweisen“ in das Modell ein und vergiftet es.

Eine Vorschau auf einen Artikel mit dem Titel Prompt-spezifische Vergiftungsangriffe auf generative Text-zu-Bild-Modelle wurde kürzlich auf arXiv veröffentlicht und beschreibt den Umfang und die Funktionalität von Nightshade. MIT Technology Review hat durch Gespräche mit dem Team hinter dem Projekt weitere Erkenntnisse gewonnen.

(Bildnachweis: University of Chicago, arXiv)

Das Problem, dass KI-Modelle ohne ausdrückliche Erlaubnis des Erstellers anhand von Daten trainiert werden und dann auf der Grundlage der gewonnenen Erkenntnisse „neue Daten generieren“, wurde in den letzten Monaten ausführlich in den Nachrichten behandelt. Was wie ein regelrechtes Daten-Scraping aussieht, gefolgt von maschinellem Aufstoßen ohne oder mit geringer Zuschreibung, hat dazu geführt, dass Entwickler aus vielen Disziplinen aktuelle generative KI-Projekte missbilligen.

source-109

Leave a Reply