Das Justizministerium nimmt die erste bekannte Festnahme im Zusammenhang mit KI-generiertem CSAM vor


Das US-Justizministerium hat letzte Woche einen Mann aus Wisconsin verhaftet, weil er KI-generiertes Material über sexuellen Missbrauch von Kindern (CSAM) erstellt und verbreitet hat. Soweit uns bekannt ist, ist dies der erste Fall dieser Art, da das DOJ einen Präzedenzfall dafür schaffen will, dass ausbeuterisches Material auch dann noch illegal ist, wenn keine Kinder für die Erstellung verwendet wurden. „Einfach ausgedrückt ist CSAM, das von KI generiert wird, immer noch CSAM“, sagte die stellvertretende Generalstaatsanwältin Lisa Monaco schrieb in einer Pressemitteilung.

Das Justizministerium sagt, der 42-jährige Softwareentwickler Steven Anderegg aus Holmen, Wisconsin, habe einen Fork des Open-Source-KI-Bildgenerators Stable Diffusion verwendet, um die Bilder zu erstellen, mit denen er dann versuchte, einen minderjährigen Jungen in sexuelle Situationen zu locken. Letzteres wird wahrscheinlich eine zentrale Rolle im endgültigen Prozess wegen der vier Anklagepunkte „Herstellung, Verbreitung und Besitz obszöner visueller Darstellungen von Minderjährigen bei sexuell eindeutigem Verhalten und Weitergabe obszönen Materials an Minderjährige unter 16 Jahren“ spielen.

Nach Angaben der Regierung zeigten die Bilder von Anderegg „nackte oder teilweise bekleidete Minderjährige, die lasziv ihre Genitalien zur Schau stellten oder berührten oder Geschlechtsverkehr mit Männern hatten.“ Das DOJ behauptet, er habe spezifische Eingabeaufforderungen verwendet, darunter auch negative Eingabeaufforderungen (zusätzliche Anleitung für das KI-Modell, um ihm zu sagen, was). nicht zu produzieren), um den Generator zur Herstellung des CSAM anzuspornen.

Cloudbasierte Bildgeneratoren wie Midjourney und DALL-E 3 verfügen über Schutzmechanismen gegen diese Art von Aktivitäten, aber Ars Technica Berichte dass Anderegg angeblich Stable Diffusion 1.5 verwendet hat, eine Variante mit weniger Grenzen. Stability AI teilte der Publikation mit, dass der Fork von Runway ML erstellt wurde.

Laut dem Justizministerium kommunizierte Anderegg online mit dem 15-jährigen Jungen und beschrieb, wie er das KI-Modell zur Erstellung der Bilder verwendete. Die Behörde sagt, der Angeklagte habe dem Teenager Direktnachrichten auf Instagram geschickt, darunter mehrere KI-Bilder von „Minderjährigen, die ihre Genitalien lasziv zur Schau stellen“. Instagram muss man zugutehalten, dass es die Bilder an die Nationales Zentrum für vermisste und ausgebeutete Kinder (NCMEC), das die Strafverfolgungsbehörden alarmierte.

Anderegg könnte eine Gefängnisstrafe von fünf bis 70 Jahren erwarten, wenn er in allen vier Anklagepunkten verurteilt wird. Er befindet sich derzeit in Bundesgewahrsam, bis zu seiner Anhörung am 22. Mai.

Der Fall wird die Vorstellung in Frage stellen, dass die Illegalität von CSAM ausschließlich auf den Kindern beruht, die bei ihrer Erstellung ausgebeutet werden. Obwohl an KI-generiertem digitalem CSAM keine lebenden Menschen beteiligt sind (außer demjenigen, der die Eingabeaufforderungen eingibt), könnte es das Material dennoch normalisieren und fördern oder dazu verwendet werden, Kinder in räuberische Situationen zu locken. Dies scheint etwas zu sein, das die Regierung klären möchte, da sich die Technologie schnell weiterentwickelt und an Popularität gewinnt.

„Die Technologie mag sich ändern, aber unser Engagement für den Schutz von Kindern wird sich nicht ändern“, schrieb der stellvertretende AG Monaco. „Das Justizministerium wird diejenigen, die Material über sexuellen Kindesmissbrauch (CSAM) produzieren und verbreiten, aggressiv verfolgen, unabhängig davon, wie dieses Material erstellt wurde. Einfach ausgedrückt ist CSAM, das von KI erzeugt wird, immer noch CSAM, und wir werden diejenigen zur Rechenschaft ziehen, die KI ausnutzen, um obszöne, beleidigende und zunehmend fotorealistische Bilder von Kindern zu erstellen.“

source-115

Leave a Reply