OpenAI sagt, dass es Bilder erkennen kann, die mit seiner eigenen Software erstellt wurden … größtenteils


Wir alle denken, dass wir ziemlich gut darin sind, von KI erstellte Bilder zu identifizieren. Es ist der seltsame Alien-Text im Hintergrund. Es sind die bizarren Ungenauigkeiten, die die Gesetze der Physik zu brechen scheinen. Vor allem sind es diese grausigen Hände und Finger. Die Technologie entwickelt sich jedoch ständig weiter und es wird nicht mehr lange dauern, bis wir nicht mehr sagen können, was real ist und was nicht. Der Branchenführer OpenAI versucht, dem Problem zuvorzukommen erstellt durch einen eigenen DALL-E 3-Generator. Die Ergebnisse sind gemischt.

Das Werkzeug in Aktion.Das Werkzeug in Aktion.

OpenAI

Das Unternehmen gibt an, dass es von DALL-3 erzeugte Bilder in 98 Prozent der Fälle genau erkennen kann, was großartig ist. Es gibt jedoch einige ziemlich große Vorbehalte. Zunächst muss das Bild von DALL-E erstellt werden und es ist nicht der einzige Bildgenerator im Block. Das Internet wimmelt von ihnen. Entsprechend Dem System gelang es lediglich, fünf bis zehn Prozent der von anderen KI-Modellen erstellten Bilder erfolgreich zu klassifizieren.

Außerdem kann es zu Problemen kommen, wenn das Bild in irgendeiner Weise verändert wurde. Bei geringfügigen Änderungen wie Zuschneiden, Komprimieren und Änderungen der Sättigung schien dies keine große Sache zu sein. In diesen Fällen war die Erfolgsquote geringer, lag aber mit etwa 95 bis 97 Prozent immer noch im akzeptablen Bereich. Durch die Anpassung des Farbtons sank die Erfolgsquote jedoch auf 82 Prozent.

Ergebnisse des Tests.Ergebnisse des Tests.

OpenAI

Jetzt wird es richtig klebrig. Bei der Klassifizierung von Bildern, die größeren Änderungen unterzogen wurden, hatte das Toolset Probleme. OpenAI veröffentlichte in diesen Fällen nicht einmal die Erfolgsquote und gab lediglich an, dass „andere Modifikationen jedoch die Leistung beeinträchtigen können“.

Das ist schade, denn nun ja, es ist ein Wahljahr und die überwiegende Mehrheit der KI-generierten Bilder wird im Nachhinein verändert, um die Menschen noch mehr in Rage zu bringen. Mit anderen Worten: Das Tool wird wahrscheinlich ein Bild von Joe Biden erkennen, der im Oval Office schläft, umgeben von Säcken mit weißem Pulver, aber nicht, nachdem der Ersteller einen Haufen wütender Texte und Photoshops in einem weinenden Weißkopfseeadler oder was auch immer angebracht hat.

Zumindest macht OpenAI die Grenzen seiner Erkennungstechnologie transparent. Außerdem erhalten externe Tester Zugriff auf die oben genannten Tools, um diese Probleme zu beheben. . Das Unternehmen hat zusammen mit seinem besten Freund Microsoft 2 Millionen US-Dollar in etwas namens „ das darauf hofft, die KI-Ausbildung und -Kompetenz zu erweitern.

Leider ist die Idee, dass KI eine Wahl verfälscht, kein fernes Konzept. Es passiert gerade. Diesen Zyklus hat es bereits gegeben und genutzt, und es ist wahrscheinlich, dass wir langsam, langsam, langsam (langsam) dem November entgegenkriechen.

Dieser Artikel enthält Affiliate-Links; Wenn Sie auf einen solchen Link klicken und einen Kauf tätigen, erhalten wir möglicherweise eine Provision.

source-115

Leave a Reply