Dieses unzensierte KI-Kunstwerkzeug kann Fantasien erzeugen – und Albträume


Bildgeneratoren wie Stable Diffusion können Bilder erstellen, die wie echte Fotografien oder handgefertigte Illustrationen aussehen, die so ziemlich alles darstellen, was sich eine Person vorstellen kann. Dies ist dank Algorithmen möglich, die lernen, die Eigenschaften einer riesigen Sammlung von Bildern aus dem Internet und Bilddatenbanken mit den zugehörigen Textetiketten zu verknüpfen. Algorithmen lernen, neue Bilder so zu rendern, dass sie mit einer Textaufforderung übereinstimmen, in einem Prozess, bei dem zufälliges Rauschen zu einem Bild hinzugefügt und entfernt wird.

Da Tools wie Stable Diffusion Bilder verwenden, die aus dem Internet geschabt wurden, enthalten ihre Trainingsdaten oft pornografische Bilder, wodurch die Software in der Lage ist, neue sexuell eindeutige Bilder zu erzeugen. Ein weiteres Problem ist, dass solche Tools verwendet werden könnten, um Bilder zu erstellen, die eine reale Person zu zeigen scheinen, die etwas Kompromittierendes tut – etwas, das Fehlinformationen verbreiten könnte.

Die Qualität der KI-generierten Bilder ist in den letzten anderthalb Jahren stark gestiegen, beginnend mit der Ankündigung eines Systems namens DALL-E im Januar 2021 durch das KI-Forschungsunternehmen OpenAI. Es hat das Modell der Generierung von Bildern aus Texteingabeaufforderungen populär gemacht, und im April 2022 folgte ein leistungsfähigerer Nachfolger, DALL-E 2, der jetzt als kommerzieller Dienst verfügbar ist.

Von Anfang an hat OpenAI eingeschränkt, wer auf seine Bildgeneratoren zugreifen kann, und den Zugriff nur über eine Eingabeaufforderung gewährt, die filtert, was angefordert werden kann. Dasselbe gilt für einen konkurrierenden Dienst namens Zwischendurchdas im Juli dieses Jahres veröffentlicht wurde und durch seine breite Zugänglichkeit dazu beitrug, KI-gemachte Kunst bekannt zu machen.

Stable Diffusion ist nicht der erste Open-Source-KI-Kunstgenerator. Nicht lange nach der Veröffentlichung des ursprünglichen DALL-E baute ein Entwickler einen Klon namens DALL-E Mini, der für jedermann zugänglich gemacht wurde und schnell zu einem Meme-Making-Phänomen wurde. DALL-E Mini, später umbenannt in Kreide, enthält immer noch Leitplanken, die denen in den offiziellen Versionen von DALL-E ähneln. Clement Delangue, CEO von Umarmendes Gesichtein Unternehmen, das viele Open-Source-KI-Projekte hostet, darunter Stable Diffusion und Craiyon, sagt, es wäre problematisch, wenn die Technologie nur von wenigen großen Unternehmen kontrolliert würde.

„Wenn Sie sich die langfristige Entwicklung der Technologie ansehen, ist es aus Sicherheitsgründen tatsächlich besser, sie offener, kooperativer und integrativer zu gestalten“, sagt er. Geschlossene Technologie sei für externe Experten und die Öffentlichkeit schwieriger zu verstehen, sagt er, und es sei besser, wenn Außenstehende Modelle für Probleme wie Rassen-, Geschlechts- oder Altersvorurteile bewerten könnten; außerdem können andere nicht auf geschlossene technologie aufbauen. Alles in allem, so sagt er, überwiegen die Vorteile des Open-Sourcing der Technologie die Risiken.

Delangue weist darauf hin, dass Social-Media-Unternehmen Stable Diffusion verwenden könnten, um ihre eigenen Tools zum Erkennen von KI-generierten Bildern zu entwickeln, die zur Verbreitung von Desinformationen verwendet werden. Er sagt, dass die Entwickler auch ein System zum Hinzufügen unsichtbarer Wasserzeichen zu Bildern beigetragen haben, die mit Stable Diffusion erstellt wurden, damit sie einfacher nachverfolgt werden können, und ein Tool zum Auffinden bestimmter Bilder in den Trainingsdaten des Modells entwickelt haben, damit problematische Bilder entfernt werden können.

Nachdem er sich für Unstable Diffusion interessiert hatte, wurde Simpson-Edin Moderator des Unstable Diffusion Discord. Der Server verbietet es Personen, bestimmte Arten von Inhalten zu posten, einschließlich Bilder, die als Minderjährigenpornografie interpretiert werden könnten. „Wir können nicht moderieren, was Leute auf ihren eigenen Computern tun, aber wir sind extrem streng mit dem, was gepostet wird“, sagt sie. Kurzfristig könnte es mehr von Menschen als von Maschinen abhängen, die störenden Auswirkungen der KI-Kunstproduktion einzudämmen.

source-114

Leave a Reply