Sora von OpenAI ist ein riesiger „F*ck You“ für die Realität


Jeder weiß, dass Online-Desinformation ein großes Problem ist – und das ist wohl auch der Fall zerrissene Gemeinschaftenmanipulierte Wahlen und verursachte bestimmte Teile der Weltbevölkerung den Verstand verlieren. Natürlich scheint niemand besonders daran interessiert zu sein, dieses Problem tatsächlich zu beheben. Tatsächlich die Institutionen am verantwortungsvollsten für Online-Desinformation (und damit diejenigen, die am besten in der Lage sind, etwas dagegen zu unternehmen) – also Technologieunternehmen – scheinen darauf bedacht zu sein, alles zu tun, um das Problem exponentiell zu verschlimmern.

Ein typisches Beispiel: OpenAI startete Sora, sein neuer Text-zu-Video-Generator, am Donnerstag. Das Modell soll es Webbenutzern ermöglichen, mit nur einer Textaufforderung hochwertige KI-Videos zu erstellen. Die Anwendung begeistert derzeit das Internet mit ihrer bizarren Vielfalt an visuellen Bildern – egal, ob das so ist eine Parade zum chinesischen Neujahrein Mann, der im Dunkeln rückwärts auf einem Laufband rennt, eine Katze in einem Bettoder zwei Piratenschiffe in einer Kaffeetasse herumwirbeln.

An diesem Punkt könnte man trotz seiner „weltverändernden“ Mission argumentieren, dass der größte Beitrag von OpenAI zum Internet die augenblickliche Erzeugung unzähliger Terabyte an digitalem Mist war. Alle offenen und öffentlichen Tools des Unternehmens sind Content-Generatoren, wie zum Beispiel: Experten warnensind darauf vorbereitet, in Betrugs- und Desinformationskampagnen eingesetzt zu werden.

In seinem Blogeintrag In Bezug auf Sora gibt das Team von OpenAI offen zu, dass die neue App einige potenzielle Nachteile haben könnte. Das Unternehmen sagte, dass es an einigen Wasserzeichen-Technologien arbeite, um Inhalte zu kennzeichnen, die sein Generator erstellt habe, und dass es gerade mit sachkundigen Leuten zusammenarbeite, um herauszufinden, wie man die unvermeidliche Flut an KI-generiertem Mist, den Sora freisetzen werde, weniger giftig machen könne. Sora ist noch nicht für die Öffentlichkeit zugänglich und in der Zwischenzeit gibt OpenAI bekannt, dass es Systeme entwickelt, die Benutzern, die gewalttätige oder sexuelle Bilder generieren möchten, den Zugriff verweigern. In der Erklärung heißt es:

Wir werden politische Entscheidungsträger, Pädagogen und Künstler auf der ganzen Welt einbeziehen, um ihre Anliegen zu verstehen und positive Anwendungsfälle für diese neue Technologie zu identifizieren. Trotz umfassender Forschung und Tests können wir nicht vorhersagen, wie viele Menschen unsere Technologie nutzbringend nutzen und wie sie missbraucht werden.

Diese Art der Formulierung des Problems ist irgendwie urkomisch, denn es ist bereits völlig offensichtlich, wie das neue Tool von OpenAI möglicherweise missbraucht werden könnte. Sora wird gefälschte Inhalte in gigantischem Ausmaß generieren – so viel ist klar. Es ist wahrscheinlich, dass einige dieser Inhalte für Zwecke der politischen Desinformation im Internet verwendet werden, einige davon könnten hypothetisch zur Unterstützung einer Vielzahl von Betrugs- und Betrügereien verwendet werden und einige könnten zur Generierung toxischer Inhalte verwendet werden. OpenAI hat angekündigt, gewalttätigen und sexuellen Inhalten sinnvolle Grenzen zu setzen, aber Webnutzer und Forscher haben gezeigt, wie klug sie sein können beim Jailbreaking von KI-Systemen um die Art von Inhalten zu generieren, die gegen die Nutzungsrichtlinien der Unternehmen verstoßen. All diese Sora-Inhalte werden offensichtlich die Social-Media-Kanäle überschwemmen, was es für normale Menschen schwieriger macht, zwischen Echt und Fälschung zu unterscheiden, und das Internet im Allgemeinen viel nerviger macht. Ich glaube nicht, dass es eines globalen Expertengremiums bedarf, um das herauszufinden.

Es gibt auch eine Reihe anderer offensichtlicher Nachteile. Einerseits werden Sora – und andere seiner Art – wahrscheinlich nicht die größten Auswirkungen auf die Umwelt haben. Forscher haben gezeigt, dass Text-zu-Bild-Generatoren sind aus ökologischer Sicht deutlich schlechter als Textgeneratoren, Und allein das Erstellen eines KI-Bildes erfordert die gleiche Menge Energie wie das vollständige Aufladen Ihres Smartphones. Zum anderen werden neue Technologien zur Text-zu-Video-Generierung wahrscheinlich der Wirtschaft der Videokünstler schaden, denn warum sollten Unternehmen Menschen dafür bezahlen, visuelle Inhalte zu erstellen, wenn zum Erstellen eines Videos nur ein Klick auf eine Schaltfläche erforderlich ist?

Was die Unternehmensklasse in diesem Land angeht, ist nichts wirklich wichtig außer Geld. Scheiß auf die Umwelt, scheiß auf Künstler, scheiß auf ein desinformationsfreies Internet, scheiß auf die Gesundheit des politischen Diskurses, scheiß auf alles, was dem Profitstreben im Weg steht. Alles, was unter Druck gesetzt werden kann, um Geld zu verdienen, sollte unter Druck gesetzt werden, auch wenn es sich um ein Softwareprogramm handelt, dessen einziger wirklicher Nutzen darin besteht, ein Video eines Cowboy-Hamsters zu erstellen, der auf einem Drachen reitet. Als Ein X-Benutzer hat es gesagt: „Dafür opfern die Idioten die Umwelt. Dumm. Scheisse. Wie. Das.”



source-113

Leave a Reply