Generalstaatsanwälte aus allen 50 Bundesstaaten fordern den Kongress auf, bei der Bekämpfung von KI-generiertem CSAM zu helfen


Die Generalstaatsanwälte aller 50 Bundesstaaten haben gemeinsam verboten und einen offenen Brief an den Kongress geschickt, in dem sie verstärkte Schutzmaßnahmen gegen KI-gestützte Bilder von sexuellem Kindesmissbrauch fordern. wie ursprünglich berichtet von AP. Der Brief fordert den Gesetzgeber auf, „eine Expertenkommission einzurichten, die die Mittel und Methoden der KI untersucht, mit denen gezielt Kinder ausgebeutet werden können“.

In dem Brief an die republikanischen und demokratischen Führer des Repräsentantenhauses und des Senats werden die Politiker außerdem aufgefordert, die bestehenden Beschränkungen für Materialien zum sexuellen Missbrauch von Kindern auszuweiten, um speziell KI-generierte Bilder und Videos einzuschließen. Diese Technologie ist extrem neu und daher gibt es in den Büchern noch nichts, was KI-generierte Bilder ausdrücklich in die gleiche Kategorie einordnet wie andere Arten von Materialien über sexuellen Kindesmissbrauch.

„Wir befinden uns in einem Wettlauf gegen die Zeit, um die Kinder unseres Landes vor den Gefahren der KI zu schützen“, schrieben die Staatsanwälte in dem Brief. „Tatsächlich wurden die sprichwörtlichen Mauern der Stadt bereits durchbrochen. Jetzt ist es an der Zeit zu handeln.“

Die Verwendung von Bildgeneratoren wie Dall-E und Midjourney zur Erstellung von Materialien über sexuellen Missbrauch von Kindern ist noch kein Problem, da die Software über Schutzmaßnahmen verfügt, die solche Dinge verbieten. Diese Staatsanwälte blicken jedoch in die Zukunft, wenn überall Open-Source-Versionen der Software auftauchen, jede mit ihren eigenen Leitplanken oder deren Fehlen. Sogar Sam Altman, CEO von OpenAI, hat erklärt, dass KI-Tools von staatlichen Eingriffen zur Risikominderung profitieren würden, erwähnte jedoch Kindesmissbrauch nicht als potenziellen Nachteil der Technologie.

Die Regierung tendiert dazu, langsam voranzukommen, wenn es um Technologie geht. wegen vielen Gründen, Da es mehrere Jahre dauerte, bis der Kongress antrat die Bedrohung durch Online-Kindesmissbraucher Im Ernst, damals in den Tagen der AOL-Chatrooms und dergleichen. Zu diesem Zweck gibt es keine unmittelbaren Anzeichen dafür, dass der Kongress eine KI-Gesetzgebung ausarbeiten will, die Generatoren die Erstellung dieser Art von schmutzigen Bildern absolut verbietet. Sogar die der Europäischen Union umfassendes Gesetz über künstliche Intelligenz erwähnt keine ausdrückliche Gefährdung für Kinder.

Der Generalstaatsanwalt von South Carolina, Alan Wilson, organisierte die Briefkampagne und ermutigte seine Kollegen, die Gesetze der Bundesstaaten zu durchforsten, um herauszufinden, ob „die Gesetze mit der Neuheit dieser neuen Technologie Schritt gehalten haben“.

Wilson warnt vor Deepfake-Inhalten, die ein echtes Kind zeigen und aus einem Foto oder Video stammen. Dies wäre kein Kindesmissbrauch im herkömmlichen Sinne, sagt Wilson, sondern würde Missbrauch darstellen und das Kind gegenüber dem Originalbild „diffamieren“ und „ausbeuten“. Er fährt fort, dass „unsere Gesetze möglicherweise nicht auf die virtuelle Natur“ einer solchen Situation eingehen.

Die Technologie könnte auch verwendet werden, um fiktive Kinder zu erfinden, die aus einer Datenbibliothek ausgewählt werden, um Materialien über sexuellen Missbrauch zu erstellen. Wilson sagt, dies würde eine „Nachfrage nach der Industrie schaffen, die Kinder ausbeutet“, als Argument gegen die Vorstellung, dass dies eigentlich niemandem schaden würde.

Obwohl die Idee des sexuellen Missbrauchs von Kindern durch Fake-Fake noch relativ neu ist, ist sich die Technologiebranche der Fake-pornografischen Inhalte sehr bewusst und hat Maßnahmen ergriffen, um dies zu verhindern. Bereits im Februar begannen Meta, OnlyFans und Pornhub mit der Nutzung eines Online-Tool namens Take It Down Dadurch können Jugendliche explizite Bilder und Videos von sich selbst aus dem Internet melden. Dieses Tool wird für normale Bilder und KI-generierte Inhalte verwendet.

source-115

Leave a Reply