Meta wird gegen KI-generierte Fälschungen vorgehen – aber vieles bleibt unentdeckt


Wie andere führende Technologieunternehmen hat Meta im vergangenen Jahr versprochen, den Einsatz generativer künstlicher Intelligenz zu beschleunigen. Heute hat es anerkannt, dass es auch auf die Gefahren der Technologie reagieren muss, und kündigte an erweiterte Politik von KI-generierten Bildern, die auf Facebook, Instagram und Threads gepostet werden, mit Warnhinweisen zu kennzeichnen, um die Menschen über ihren künstlichen Ursprung zu informieren.

Dennoch ist es unwahrscheinlich, dass viele der synthetischen Medien, die voraussichtlich auf den Plattformen von Meta erscheinen, von der neuen Richtlinie abgedeckt werden, sodass viele Lücken entstehen, durch die böswillige Akteure schlüpfen könnten. „Es ist ein Schritt in die richtige Richtung, aber mit Herausforderungen“, sagt Sam Gregory, Programmdirektor der gemeinnützigen Organisation Witness, die Menschen dabei hilft, Technologie zur Unterstützung der Menschenrechte einzusetzen.

Meta kennzeichnet KI-generierte Bilder, die mit seinen eigenen generativen KI-Tools erstellt wurden, bereits mit dem Tag „Imagined with AI“, teilweise indem es nach dem digitalen „Wasserzeichen“ sucht, das seine Algorithmen in ihre Ausgabe einbetten. Jetzt sagt Meta, dass es in den kommenden Monaten auch KI-Bilder kennzeichnen wird, die mit Tools anderer Unternehmen erstellt wurden, die Wasserzeichen in ihre Technologie einbetten.

Die Richtlinie soll das Risiko der Verbreitung von Fehl- oder Desinformationen durch als Fotos ausgegebene KI-generierte Bilder verringern. Aber obwohl Meta sagte, dass es daran arbeitet, Offenlegungstechnologie in der Entwicklung bei Google, OpenAI, Microsoft, Adobe, Midjourney und Shutterstock zu unterstützen, ist die Technologie noch nicht weit verbreitet. Und es sind viele Tools zur KI-Bildgenerierung verfügbar, die ihre Ausgabe nicht mit einem Wasserzeichen versehen, wobei die Technologie immer einfacher zugänglich und modifizierbar wird. „Ein solches System kann nur dann effektiv sein, wenn ein breites Spektrum generativer Tools und Plattformen beteiligt ist“, sagt Gregory.

Auch wenn es breite Unterstützung für Wasserzeichen gibt, ist unklar, wie robust der Schutz sein wird, den es bietet. Es gibt keinen allgemeingültigen Standard, aber die Coalition for Content Provenance and Authenticity (C2PA), eine von Adobe gegründete Initiative, hat Unternehmen dabei geholfen, ihre Arbeit an dem Konzept auszurichten. Aber die bisher entwickelte Technologie ist nicht narrensicher. In einer im letzten Jahr veröffentlichten Studie stellten Forscher fest, dass sie Wasserzeichen leicht zerstören oder sie zu Bildern hinzufügen könnten, die nicht von KI generiert wurden, um den Eindruck zu erwecken, dass dies der Fall sei.

Böswillige Lücke

Hany Farid, Professor an der UC Berkeley School of Information, der die C2PA-Initiative beraten hat, sagt, dass jeder, der an der böswilligen Nutzung generativer KI interessiert ist, wahrscheinlich auf Tools zurückgreifen wird, die ihre Ergebnisse nicht mit einem Wasserzeichen versehen oder deren Natur verraten. Beispielsweise haben die Erfinder des gefälschten Robocalls mit der Stimme von Präsident Joe Biden, der sich letzten Monat an einige Wähler in New Hampshire richtete, keine Offenlegung seiner Ursprünge hinzugefügt.

Und er ist der Meinung, dass Unternehmen darauf vorbereitet sein sollten, dass böswillige Akteure jede Methode ins Visier nehmen, mit der sie versuchen, die Herkunft von Inhalten zu ermitteln. Farid vermutet, dass möglicherweise mehrere Formen der Identifizierung gemeinsam verwendet werden müssen, um KI-generierte Bilder zuverlässig zu identifizieren, beispielsweise durch die Kombination von Wasserzeichen mit Hash-basierter Technologie, die zur Erstellung von Beobachtungslisten für Material über Kindesmissbrauch verwendet wird. Und Wasserzeichen sind ein weniger entwickeltes Konzept für andere KI-generierte Medien als Bilder, wie Audio und Video.

„Während Unternehmen beginnen, Signale in ihre Bildgeneratoren einzubeziehen, haben sie noch nicht damit begonnen, sie in KI-Tools einzubeziehen, die Audio und Video im gleichen Maßstab erzeugen. Daher können wir diese Signale noch nicht erkennen und diesen Inhalt von anderen Unternehmen kennzeichnen. ” Meta-Sprecher Kevin McAlister bestätigt. „Während die Branche auf diese Möglichkeit hinarbeitet, fügen wir eine Funktion hinzu, die die Leute offenlegen können, wenn sie KI-generierte Videos oder Audiodaten teilen, damit wir ihnen ein Label hinzufügen können.“

Die neuen Richtlinien von Meta könnten dabei helfen, mehr gefälschte Inhalte zu erkennen, aber nicht alle manipulierten Medien sind KI-generiert. Eine am Montag vom Meta-Aufsichtsgremium aus unabhängigen Experten veröffentlichte Entscheidung, die einige Moderationsaufrufe prüft, bestätigte die Entscheidung des Unternehmens, ein Video von Präsident Joe Biden offen zu lassen, das so bearbeitet wurde, dass es den Anschein erweckt, als würde er die Brust seiner Enkelin unangemessen berühren. Der Vorstand sagte jedoch, dass das Video, das nicht KI-generiert sei, zwar nicht gegen die aktuellen Richtlinien von Meta verstoße, dies aber tun sollte überarbeiten und erweitern Seine Regeln für „manipulierte Medien“ umfassen mehr als nur KI-generierte Inhalte.

McAlister, der Meta-Sprecher, sagt, das Unternehmen „prüfe die Leitlinien des Aufsichtsgremiums und werde innerhalb von 60 Tagen gemäß der Satzung öffentlich auf seine Empfehlungen reagieren“. Farid sagt, dass die Lücke in den Richtlinien von Meta und der technische Fokus auf ausschließlich mit Wasserzeichen versehene, durch KI generierte Bilder darauf hindeuten, dass der Plan des Unternehmens für die Generation-KI-Ära unvollständig ist.

source-114

Leave a Reply