Das neue Wasserzeichen von OpenAI wird unsere Probleme mit gefälschten Bildern verschlimmern


OpenAI-CEO Sam Altman

Foto: Mike Coppola / Mitarbeiter (Getty Images)

OpenAI kündigte am Dienstag an, den von seinen KI-Tools generierten Bildern Wasserzeichen hinzuzufügen, um der wachsenden Angst vor dem bevorstehenden Deepfake-Tsunami entgegenzuwirken. Mit DALL-E und anderen OpenAI-Diensten erstellte Bilder enthalten ein visuelles Wasserzeichen und andere Details zu ihrer Herkunft in den Metadaten – Informationen, die in der generierten Datei codiert sind. Hier liegt das Problem: Um das Metadaten-Wasserzeichen zu entfernen, müssen Sie lediglich einen Screenshot machen. Das bedeutet, dass die „Lösung“ von OpenAI Sie mehr und nicht weniger verwirren könnte, sobald sie in Kraft tritt.

Stellen Sie sich vor, Sie sehen ein verdächtiges Bild. Wenn Sie das KI-Wasserzeichen überprüfen und entdecken, ist der Fall abgeschlossen. Wenn Sie sich jedoch ein KI-generiertes Bild ansehen, dessen Wasserzeichen entfernt wurde, könnte die Überprüfung der Metadaten Ihnen ein falsches Sicherheitsgefühl vermitteln. Mit anderen Worten: Die Suche nach dem Wasserzeichen könnte tatsächlich bedeuten, dass Sie über weniger Informationen verfügen als zu Beginn.

OpenAI selbst erklärt, dass Sie das Wasserzeichen möglicherweise sogar versehentlich entfernen. Wenn Sie ein Bild in soziale Medien hochladen, entfernen die meisten Plattformen automatisch Metadaten aus der Datei, da dies manchmal der Fall sein kann persönliche Daten eines Benutzers preisgeben. Wenn Sie also eine Ihrer KI-Kreationen auf Instagram veröffentlichen, kann es sein, dass Sie unabsichtlich ein Fiasko mit gefälschten Bildern auslösen.

Ein Screenshot des Wasserzeichensystems von OpenAI.

OpenAI-Bilder enthalten ein visuelles Wasserzeichen und Details zur Quelle des in die Dateien eingebetteten Bildes.
Grafik: OpenAI

Das Unternehmen hält dies weiterhin für eine gute Idee. „Wir glauben, dass die Übernahme dieser Methoden zur Feststellung der Herkunft und die Ermutigung der Benutzer, diese Signale zu erkennen, der Schlüssel zur Erhöhung der Vertrauenswürdigkeit digitaler Informationen sind“, schrieb OpenAI in einem Blogeintrag. Allerdings räumt das Unternehmen ein, dass das Wasserzeichen „kein Allheilmittel“ sei. OpenAI reagierte nicht sofort auf eine Bitte um Stellungnahme.

OpenAI kann hier nicht die ganze Schuld auf sich nehmen. Das Unternehmen übernimmt einen neuen Standard, der von der Coalition for Content Provenance and Authenticity (C2PA) entwickelt wurde, einer Initiative von Adobe in Zusammenarbeit mit einer Reihe von Unternehmen, darunter Arm, der BBC, Intel, Microsoft, der New York Times und X/ Twitter. Meta hat angekündigt, eigene Tags hinzuzufügen zu KI-generierten Bildern, obwohl nicht genau klar ist, wie das Unternehmen den C2PA-Standard integrieren will.

Sie können ein Bild bereits durch ein mit C2PA entwickeltes KI-Prüfsystem namens laufen lassen Überprüfen Sie die Anmeldeinformationen des Inhalts. Gehen Sie einfach nicht davon aus, dass Sie in Sicherheit sind, wenn Ihr Bild klar erscheint.

source-113

Leave a Reply