Der KI-generierte Albtraum des Kindesmissbrauchs ist da


Experten warnen, dass jetzt eine schreckliche neue Ära ultrarealistischer, KI-generierter Bilder von sexuellem Missbrauch von Kindern im Gange ist. Täter nutzen herunterladbare generative Open-Source-KI-Modelle, die Bilder erzeugen können, mit verheerenden Folgen. Mithilfe der Technologie werden Hunderte neuer Bilder von Kindern erstellt, die zuvor misshandelt wurden. Straftäter teilen Datensätze von Missbrauchsbildern, die zur Anpassung von KI-Modellen verwendet werden können, und beginnen, monatliche Abonnements für KI-generiertes Material zum sexuellen Missbrauch von Kindern (CSAM) zu verkaufen.

Die Einzelheiten darüber, wie die Technologie missbraucht wird, sind in einem neuen, Umfangreicher Bericht veröffentlicht von der Internet Watch Foundation (IWF), einer gemeinnützigen Organisation mit Sitz im Vereinigten Königreich, die Missbrauchsinhalte aus dem Internet durchsucht und entfernt. Im Juni teilte die IWF mit, sie habe im offenen Web sieben URLs gefunden, die mutmaßlich von KI erstelltes Material enthielten. Bei der Untersuchung eines Dark-Web-CSAM-Forums, das einen Überblick über die Verwendung von KI liefert, wurden nun fast 3.000 KI-generierte Bilder gefunden, die das IWF nach britischem Recht für illegal hält.

Laut der IWF-Studie zeigen die von der KI erzeugten Bilder Vergewaltigungen von Babys und Kleinkindern, Missbrauch berühmter jugendlicher Kinder sowie BDSM-Inhalte mit Teenagern. „Wir haben Forderungen, Diskussionen und tatsächliche Beispiele für Material über Kindesmissbrauch mit Prominenten gesehen“, sagt Dan Sexton, der Chief Technology Officer des IWF. Manchmal, sagt Sexton, werden Prominente so gealtert, dass sie wie Kinder aussehen. In anderen Fällen werden erwachsene Prominente als diejenigen dargestellt, die Kinder missbrauchen.

Während Berichte über KI-generiertes CSAM immer noch im Vergleich zur Anzahl echter Missbrauchsbilder und -videos im Internet in den Schatten gestellt werden, ist Sexton besorgt über die Geschwindigkeit der Entwicklung und das Potenzial, das sie für neue Arten missbräuchlicher Bilder schafft. Die Ergebnisse stimmen mit denen anderer Gruppen überein, die die Verbreitung von CSAM online untersuchen. In einer gemeinsamen Datenbank haben Ermittler auf der ganzen Welt 13.500 KI-generierte Bilder von sexuellem Missbrauch und sexueller Ausbeutung von Kindern markiert, sagt Lloyd Richardson, der Direktor für Informationstechnologie am Canadian Centre for Child Protection, gegenüber WIRED. „Das ist nur die Spitze des Eisbergs“, sagt Richardson.

Ein realistischer Albtraum

Die aktuellen KI-Bildgeneratoren, die in der Lage sind, überzeugende Kunst, realistische Fotos und ausgefallene Designs zu produzieren, bieten eine neue Art von Kreativität und das Versprechen, die Kunst für immer zu verändern. Sie wurden auch verwendet, um überzeugende Fälschungen zu erstellen, wie zum Beispiel Balenciaga Pope und eine frühe Version der Verhaftung von Donald Trump. Die Systeme werden anhand riesiger Mengen vorhandener Bilder trainiert, die häufig ohne Genehmigung aus dem Internet entfernt werden, und ermöglichen die Erstellung von Bildern anhand einfacher Texteingaben. Wenn man nach einem „Elefant mit Hut“ fragt, wird das genau das Ergebnis sein.

Es ist keine Überraschung, dass Straftäter, die CSAM erstellen, Tools zur Bildgenerierung übernommen haben. „Die Art und Weise, wie diese Bilder generiert werden, ist typischerweise die Verwendung offen verfügbarer Software“, sagt Sexton. Straftäter, die das IWF gesehen hat, beziehen sich häufig auf Stable Diffusion, ein KI-Modell der britischen Firma Stability AI. Das Unternehmen reagierte nicht auf die Bitte von WIRED um einen Kommentar. In der zweiten Version seiner Software, die Ende letzten Jahres veröffentlicht wurde, stellt das Unternehmen vor hat sein Modell geändert um es den Menschen zu erschweren, CSAM- und andere Nacktbilder zu erstellen.

Sexton sagt, dass Kriminelle ältere Versionen von KI-Modellen verwenden und diese verfeinern, um illegales Material von Kindern zu erstellen. Dabei wird ein Modell mit vorhandenen Missbrauchsbildern oder Fotos von Gesichtern von Personen gefüttert, sodass die KI Bilder von bestimmten Personen erstellen kann. „Wir sehen fein abgestimmte Modelle, die neue Bilder von bestehenden Opfern erzeugen“, sagt Sexton. Die Täter würden „Hunderte neue Bilder bestehender Opfer austauschen“ und Anfragen zu einzelnen Personen stellen, sagt er. Einige Threads in Dark-Web-Foren teilen Gesichter von Opfern, heißt es in der Studie, und ein Thread hieß: „Fotoressourcen für KI- und Deepfaking-spezifische Mädchen“.

source-114

Leave a Reply