Die dunkle Seite von Open-Source-KI-Bildgeneratoren


Ob durch die stirnrunzelnde High-Definition Gesicht eines Schimpansen oder ein psychedelischer, rosa-roter Farbton Doppelgänger seiner selbstReuven Cohen nutzt KI-generierte Bilder, um die Aufmerksamkeit der Menschen zu erregen. „Ich habe mich schon immer für Kunst, Design und Video interessiert und genieße es, Grenzen zu überschreiten“, sagt er – aber der in Toronto ansässige Berater, der Unternehmen bei der Entwicklung von KI-Tools unterstützt, hofft auch, das Bewusstsein für die dunkleren Einsatzmöglichkeiten der Technologie zu schärfen.

„Es kann auch gezielt darauf trainiert werden, auf vielfältige Weise ziemlich grausam und böse zu sein“, sagt Cohen. Er ist ein Fan der freizügigen Experimente, die durch die Open-Source-Technologie zur Bildgenerierung ausgelöst wurden. Aber dieselbe Freiheit ermöglicht die Schaffung expliziter Bilder von Frauen, die zur Belästigung missbraucht werden.

Nachdem kürzlich nicht einvernehmliche Bilder von Taylor Swift auf X verbreitet wurden, hat Microsoft seinem Bildgenerator neue Steuerelemente hinzugefügt. Open-Source-Modelle können von nahezu jedem genutzt werden und kommen im Allgemeinen ohne Leitplanken aus. Trotz der Bemühungen einiger hoffnungsvoller Community-Mitglieder, ausbeuterische Nutzungen zu verhindern, ist die Open-Source-Freiheit für alle nahezu unmöglich zu kontrollieren, sagen Experten.

„Open Source hat den Missbrauch gefälschter Bilder und nicht einvernehmliche Pornografie vorangetrieben. Das lässt sich nicht beschönigen oder qualifizieren“, sagt er Henry Ajderder jahrelang den schädlichen Einsatz generativer KI erforscht hat.

Ajder sagt, dass Open-Source-Software zur Bildgenerierung gleichzeitig zum Liebling von Forschern, Kreativen wie Cohen und Akademikern, die an KI arbeiten, zum Fundament von Deepfake-Pornos geworden sei. Einige Tools, die auf Open-Source-Algorithmen basieren, wurden speziell für anzügliche oder belästigende Zwecke entwickelt, beispielsweise „Nacktmachen“-Apps, die Frauenkleidung auf Bildern digital entfernen.

Viele Tools können jedoch sowohl legitimen als auch belästigenden Anwendungsfällen dienen. Ein beliebtes Open-Source-Face-Swapping-Programm wird von Leuten in der Unterhaltungsindustrie und als „Werkzeug der Wahl für schlechte Schauspieler“ verwendet, um nicht einvernehmliche Deepfakes zu erstellen, sagt Ajder. Der hochauflösende Bildgenerator Stable Diffusion, entwickelt vom Startup Stability AI, soll darüber verfügen mehr als 10 Millionen Benutzer und es sind Leitplanken installiert, um die explizite Erstellung von Bildern zu verhindern Richtlinien verbieten böswilliger Gebrauch. Aber das Unternehmen hat im Jahr 2022 auch eine Open-Source-Version des Bildgenerators veröffentlicht, die anpassbar ist, und Online-Anleitungen erklären, wie man die eingebauten Einschränkungen umgehen kann.

Unterdessen machen es kleinere KI-Modelle, sogenannte LoRAs, einfacher, ein Stable Diffusion-Modell so abzustimmen, dass es Bilder mit einem bestimmten Stil, Konzept oder einer bestimmten Pose ausgibt – etwa das Konterfei einer Berühmtheit oder bestimmte sexuelle Handlungen. Sie sind auf KI-Modellmarktplätzen wie Civitai, einer Community-basierten Website, auf der Benutzer Modelle teilen und herunterladen, weit verbreitet. Dort hat ein Entwickler eines Taylor-Swift-Plug-ins andere dazu aufgefordert, es nicht „für NSFW-Bilder“ zu verwenden. Nach dem Herunterladen liegt die Verwendung jedoch außerhalb der Kontrolle des Erstellers. „Die Art und Weise, wie Open Source funktioniert, bedeutet, dass es ziemlich schwierig sein wird, jemanden davon abzuhalten, es möglicherweise zu kapern“, sagt Ajder.

4chan, die bildbasierte Message-Board-Site mit dem Ruf chaotischer Moderation, beherbergt Seiten, die sich mit nicht einvernehmlichen Deepfake-Pornos befassen, wie WIRED herausfand, die mit offen verfügbaren Programmen und KI-Modellen erstellt wurden, die ausschließlich sexuellen Bildern gewidmet sind. Message Boards für Bilder für Erwachsene sind übersät mit KI-generierten, nicht einvernehmlichen Aktfotos echter Frauen, von Pornodarstellerinnen bis hin zu Schauspielerinnen wie Cate Blanchett. WIRED beobachtete auch, dass 4chan-Benutzer Problemumgehungen für NSFW-Bilder mit Dall-E 3 von OpenAI teilten.

Diese Art von Aktivität hat einige Benutzer in Communities, die sich der Erstellung von KI-Bildern widmen, darunter auf Reddit und Discord, dazu inspiriert, zu versuchen, sich gegen das Meer pornografischer und böswilliger Bilder zu wehren. Die Ersteller äußern auch ihre Besorgnis darüber, dass die Software für NSFW-Bilder in den Ruf gerät, und ermutigen andere, Bilder, die Minderjährige zeigen, auf Reddit und Model-Hosting-Sites zu melden.



source-114

Leave a Reply