Die weltweit führenden KI-Unternehmen verpflichten sich, die Sicherheit von Kindern im Internet zu schützen


Führende Unternehmen für künstliche Intelligenz, darunter OpenAI, Microsoft, Google, Meta und andere, haben sich gemeinsam verpflichtet, zu verhindern, dass ihre KI-Tools zur Ausbeutung von Kindern und zur Generierung von Material über sexuellen Missbrauch von Kindern (CSAM) verwendet werden. Die Initiative wurde von der Kindersicherheitsgruppe Thorn und All Tech Is Human geleitet, einer gemeinnützigen Organisation, die sich auf verantwortungsvolle Technologie konzentriert.

Die Zusagen von KI-Unternehmen, Thorn sagte„stellt einen bahnbrechenden Präzedenzfall für die Branche dar und stellt einen bedeutenden Schritt in den Bemühungen dar, Kinder vor sexuellem Missbrauch zu schützen, da sich ein Feature mit generativer KI entfaltet.“ Ziel der Initiative ist es, die Erstellung von sexuell eindeutigem Material mit Beteiligung von Kindern zu verhindern und es von Social-Media-Plattformen und Suchmaschinen zu entfernen. Allein im Jahr 2023 wurden in den USA mehr als 104 Millionen Dateien mit mutmaßlichem Material zum sexuellen Missbrauch von Kindern gemeldet, sagt Thorn. Ohne kollektives Handeln wird die generative KI dieses Problem voraussichtlich verschlimmern und die Strafverfolgungsbehörden überfordern, die bereits Schwierigkeiten haben, echte Opfer zu identifizieren.

Am Dienstag veröffentlichten Thorn und All Tech Is Human eine neues Papier Mit dem Titel „Safety by Design for Generative AI: Preventing Child Sexual Abuse“ werden Strategien skizziert und Empfehlungen für Unternehmen dargelegt, die KI-Tools, Suchmaschinen, Social-Media-Plattformen, Hosting-Unternehmen und Entwickler entwickeln, um Maßnahmen zu ergreifen, um die Nutzung generativer KI zu verhindern Kindern schaden.

In einer der Empfehlungen werden Unternehmen beispielsweise aufgefordert, Datensätze, die zum Trainieren von KI-Modellen verwendet werden, sorgfältig auszuwählen und solche zu vermeiden, die nur Instanzen von CSAM, aber auch Inhalte für Erwachsene enthalten, da generative KI dazu neigt, die beiden Konzepte zu kombinieren. Thorn fordert außerdem Social-Media-Plattformen und Suchmaschinen auf, Links zu Websites und Apps zu entfernen, die es Menschen ermöglichen, Bilder von Kindern „nackt“ zu machen, und so neues KI-generiertes Material über sexuellen Kindesmissbrauch online zu erstellen. Eine Flut von KI-generiertem CSAM wird dem Papier zufolge die Identifizierung echter Opfer sexuellen Kindesmissbrauchs erschweren, indem sie das „Heuhaufen-Problem“ verschärft – ein Hinweis auf die Menge an Inhalten, die Strafverfolgungsbehörden derzeit durchsuchen müssen.

„Dieses Projekt sollte deutlich machen, dass man nicht die Hände hochreißen muss“, sagte Rebecca Portnoff, Vizepräsidentin für Datenwissenschaft bei Thorn erzählt Die Wallstreet Journal. „Wir wollen in der Lage sein, den Kurs dieser Technologie dahingehend zu ändern, dass die bestehenden Schäden dieser Technologie auf der Strecke bleiben.“

Einige Unternehmen, so Portnoff, hätten bereits zugestimmt, Bilder, Videos und Audiodaten, an denen Kinder beteiligt seien, von Datensätzen mit Inhalten für Erwachsene zu trennen, um zu verhindern, dass ihre Modelle beides kombinieren. Andere fügen ebenfalls Wasserzeichen hinzu, um KI-generierte Inhalte zu identifizieren, aber die Methode ist nicht narrensicher – Wasserzeichen und Metadaten können leicht entfernt werden.

source-115

Leave a Reply