Der neue KI-Bildgenerator von Amazon erstellt auf jedem Deepfake ein „unsichtbares Wasserzeichen“.


Wie schwer ist es zu überprüfen, ob es sich bei einem Bild um einen KI-Deepfake handelt oder nicht? Nun, Amazon behauptet, mit seinem eigenen Wasserzeichensystem für Titan, dem neuen KI-Kunstgenerator, den es heute angekündigt hat, eine Antwort darauf zu haben. Natürlich ist es nicht so einfach. Jedes Unternehmen, das das Modell nutzt, muss darlegen, wie Benutzer überprüfen können, ob das Bild, das sie online gefunden haben, tatsächlich nur ein weiterer KI-Deepfake ist.

Amazon hat nicht viele – oder wirklich keine – angebotenEinzelheiten um Titans Fähigkeiten, ganz zu schweigen von den Trainingsdaten. Swami Sivasubramanian, Vizepräsident für maschinelles Lernen bei Amazon Web Services, erklärte den Teilnehmern der re:Invent-Konferenz des Unternehmens, dass man ein „realistisches“ Bild eines Leguans erstellen, den Hintergrund des Bildes ändern und ein generatives Fülltyp-Tool verwenden könne, um die Bildränder zu erweitern . Es ist nichts, was wir noch nicht gesehen haben, aber das Modell ist über das auf AWS-Kunden beschränkt Grundgestein Plattform. Es handelt sich um ein grundlegendes Modell für Unternehmen zur Integration in ihre eigenen Plattformen.

Der Riese, der Cloud-Dienste anbietet, überlässt es wie viele andere Unternehmen den einzelnen Benutzern, herauszufinden, ob ein Bild von KI erstellt wurde oder nicht. Das Unternehmen sagte, dass dieser neue KI-Bildgenerator jedes durch das Modell erstellte Bild mit einem „unsichtbaren Wasserzeichen“ versehen wird. Dies soll „dazu beitragen, die Verbreitung von Fehlinformationen zu reduzieren, indem ein diskreter Mechanismus zur Identifizierung von KI-generierten Bildern bereitgestellt wird.“

Um welche Art von Wasserzeichen es sich handelt und wie externe Benutzer das Bild identifizieren können, ist nicht sofort klar. Andere Unternehmen wie Google DeepMind haben dies behauptet haben Wege gefunden, die Pixel eines KI-generierten Bildes zu stören um ein unveränderliches Wasserzeichen zu erstellen. Gizmodo wandte sich zur Klärung an Amazon, wir erhielten jedoch nicht sofort eine Antwort.

Vasi Philomin, Vizepräsident für generative KI bei AWS, sagte: Der Rand dass das Wasserzeichen keinen Einfluss auf die Bildqualität hat, obwohl es nicht „zugeschnitten oder komprimiert“ werden kann. Es handelt sich offenbar auch nicht nur um ein Metadaten-Tag. Adobe verwendet Metadaten-Tags um anzuzeigen, ob ein mit seinem Firefly-Modell erstelltes Bild KI ist oder nicht. Es erfordert, dass Benutzer eine separate Website aufrufen, um herauszufinden, ob ein Bild das Metadaten-Tag enthält oder nicht.

Um herauszufinden, ob es sich bei einem Bild um KI handelt, müssen Benutzer eine Verbindung zu einer separaten API herstellen. Es liegt an jedem einzelnen Unternehmen, das das Modell nutzt, den Benutzern mitzuteilen, wie sie auf diese KI-Scantechnologie zugreifen können.

Einfach ausgedrückt wird es unglaublich nervig sein herauszufinden, welche Bilder KI sind, insbesondere wenn man bedenkt, dass jedes Unternehmen ein separates Wasserzeichensystem für seine KI erstellt.

Die KI-Modelle von Amazon sind möglicherweise die verschlossensten, die bisher von allen großen Unternehmen veröffentlicht wurden. Am Dienstag enthüllte das Unternehmen „Q“, ein anpassbarer Chatbot für Unternehmen, obwohl wir keine Ahnung von den zugrunde liegenden Modellen oder Trainingsdaten haben. In einem Blogeintragsagte der führende KI-Chiphersteller Nvidia, Amazon habe seine genutzt NeMo-Framework für das Training des neuen Modells. NeMo enthält vorab trainierte Modelle, die die Entwicklung neuer KI beschleunigen sollen, aber das bietet nicht viele Hinweise darauf, welche Art von Inhalten in den neuen KI-Kunstgenerator geflossen sind.

Es gibt einen Grund, warum das Unternehmen nicht viel darüber reden möchte, was in dieser KI steckt. Es gab eine Vielzahl von Künstlern, die andere Unternehmen kritisiert und sogar verklagt haben, mit der Begründung, dass diejenigen, die KI-Kunstgeneratoren herstellen, ihre Arbeit ohne Erlaubnis für KI-Schulungen verwendet hätten. Amazon hat bereits versprochen, Unternehmen zu schützen, die die Sprachmodell-Kodier-KI des Technologieriesen nutzen Code-Flüsterer wenn jemand versucht, zu klagen. Am Mittwoch teilte Sivasubramanian den Teilnehmern mit, dass die Entschädigungsregelung auch für das Titan-Modell gelten würde.

AWS behauptet, das Titan-Modell verfüge über „integrierte Unterstützung für den verantwortungsvollen Einsatz von KI, indem es schädliche Inhalte aus den Daten erkennt und entfernt, unangemessene Benutzereingaben zurückweist und Modellausgaben filtert“. Was genau das bedeutet, bleibt ungeklärt, ohne die Möglichkeit zu haben, es zu testen. Wie bei allen KI-Produkten, die auf der re:Invent-Konferenz angekündigt wurden, ist das Modell bis auf zahlende Unternehmenskunden streng gesperrt.

source-113

Leave a Reply