Neues Anti-KI-Tool „vergiftet“ generative Modelle, um Kunstwerke vor unbefugten Robo-Rembrandts zu schützen


Ein neues Tool von Forschern der University of Chicago verspricht, Kunst davor zu schützen, von KI-Modellen aufgesaugt und ohne Erlaubnis für Schulungen verwendet zu werden, indem Bilddaten „vergiftet“ werden.

Bekannt als NachtschattenDas Tool optimiert digitale Bilddaten auf eine Weise, die angeblich für das menschliche Auge unsichtbar ist, aber bei generativen Trainingsmodellen wie DALL-E, Midjourney und Stable Diffusion allerlei Ärger verursacht.

source-82

Leave a Reply