Meta plant, die Kennzeichnung von KI-generierten Bildern auf seinen Plattformen zu verstärken


Meta plant, die Kennzeichnung von KI-generierten Bildern auf Facebook, Instagram und Threads zu verstärken, um deutlich zu machen, dass die Bilder künstlich sind. Dies ist Teil eines umfassenderen Vorstoßes zur Eindämmung von Fehlinformationen und Desinformationen, was besonders wichtig ist, da wir uns in einem wichtigen Wahljahr in den USA und anderen Ländern mit den Auswirkungen generativer KI (GAI) auseinandersetzen.

Laut Nick Clegg, Präsident für globale Angelegenheiten bei Meta, hat das Unternehmen mit Partnern aus der gesamten Branche zusammengearbeitet, um Standards zu entwickeln, die Hinweise darauf enthalten, dass ein Bild, ein Video oder ein Audioclip mithilfe von KI erstellt wurde. „Die Fähigkeit, diese Signale zu erkennen, wird es uns ermöglichen, KI-generierte Bilder zu kennzeichnen, die Benutzer auf Facebook, Instagram und Threads posten“, schrieb Clegg in einem Meta-Newsroom-Beitrag. „Wir bauen diese Funktion jetzt auf und werden in den kommenden Monaten damit beginnen, Beschriftungen in allen Sprachen anzuwenden, die von jeder App unterstützt werden.“ Clegg fügte hinzu, dass Meta durch die Ausweitung dieser Fähigkeiten im nächsten Jahr erwartet, mehr darüber zu erfahren, „wie Menschen KI-Inhalte erstellen und teilen, welche Art von Transparenz für die Menschen am wertvollsten ist und wie sich diese Technologien weiterentwickeln.“ Diese werden dazu beitragen, sowohl die Best Practices der Branche als auch die eigenen Richtlinien von Meta zu beeinflussen, schrieb er.

Meta sagt, dass die Tools, an denen es arbeitet, in der Lage sein werden, unsichtbare Signale zu erkennen – nämlich KI-generierte Informationen, die mit den übereinstimmen C2PA Und IPTC technische Standards – maßstabsgetreu. Daher geht man davon aus, Bilder von Google, OpenAI, Microsoft, Adobe, Midjourney und Shutterstock lokalisieren und kennzeichnen zu können, die allesamt GAI-Metadaten in Bilder integrieren, die ihre Produkte erstellen.

Was GAI-Video und -Audio angeht, weist Clegg darauf hin, dass Unternehmen in diesem Bereich noch nicht damit begonnen haben, unsichtbare Signale in der gleichen Größenordnung wie Bilder zu integrieren. Daher ist Meta noch nicht in der Lage, Video- und Audiodaten zu erkennen, die von KI-Tools von Drittanbietern generiert wurden. Mittlerweile erwartet Meta von den Nutzern, dass sie solche Inhalte selbst kennzeichnen.

„Während die Branche auf diese Fähigkeit hinarbeitet, fügen wir eine Funktion hinzu, die die Leute offenlegen können, wenn sie KI-generierte Videos oder Audios teilen, damit wir ihnen ein Label hinzufügen können“, schrieb Clegg. „Wir verlangen von den Menschen, dass sie dieses Offenlegungs- und Kennzeichnungstool verwenden, wenn sie organische Inhalte mit einem fotorealistischen Video oder realistisch klingenden Audio veröffentlichen, das digital erstellt oder verändert wurde, und wir können Strafen verhängen, wenn sie dies nicht tun. Wenn wir das feststellen.“ Bei digital erstellten oder veränderten Bild-, Video- oder Audioinhalten besteht ein besonders hohes Risiko, die Öffentlichkeit in einer wichtigen Angelegenheit materiell zu täuschen. Gegebenenfalls können wir eine auffälligere Kennzeichnung hinzufügen, damit die Menschen mehr Informationen und Kontext haben.“

Allerdings scheint es ein Kinderspiel zu sein, den Nutzern die Verpflichtung aufzuerlegen, Offenlegungen und Kennzeichnungen zu KI-generierten Videos und Audiodaten hinzuzufügen. Viele dieser Menschen werden versuchen, andere absichtlich zu täuschen. Darüber hinaus werden sich andere wahrscheinlich einfach nicht darum kümmern oder sich der GAI-Richtlinien nicht bewusst sein.

Darüber hinaus möchte Meta es den Menschen erschweren, unsichtbare Markierungen aus GAI-Inhalten zu ändern oder zu entfernen. Das FAIR AI-Forschungslabor des Unternehmens hat entwickelte Technik Das „integriert den Wasserzeichenmechanismus für einige Arten von Bildgeneratoren direkt in den Bilderzeugungsprozess, was für Open-Source-Modelle wertvoll sein könnte, sodass das Wasserzeichen nicht deaktiviert werden kann“, schrieb Clegg. Meta arbeitet außerdem an Möglichkeiten, KI-generiertes Material ohne unsichtbare Markierungen automatisch zu erkennen.

Meta plant, weiterhin mit Industriepartnern zusammenzuarbeiten und „im Dialog mit Regierungen und der Zivilgesellschaft zu bleiben“, da GAI immer häufiger auftritt. Das Unternehmen ist davon überzeugt, dass dies vorerst der richtige Ansatz für den Umgang mit Inhalten ist, die auf Facebook, Instagram und Threads geteilt werden, wird jedoch bei Bedarf Anpassungen vornehmen.

Ein Hauptproblem bei Metas Ansatz – zumindest während er an Möglichkeiten zur automatischen Erkennung von GAI-Inhalten arbeitet, die nicht die branchenüblichen unsichtbaren Markierungen verwenden – besteht darin, dass er die Zustimmung von Partnern erfordert. C2PA verfügt beispielsweise über eine Authentifizierungsmethode im Ledger-Stil. Damit das funktioniert, müssen sowohl die Tools, die zum Erstellen von Bildern verwendet werden, als auch die Plattformen, auf denen sie gehostet werden, C2PA akzeptieren.

Meta teilte das Update zu seinem Ansatz zur Kennzeichnung von KI-generierten Inhalten mit, nur wenige Tage nachdem CEO Mark Zuckerberg mehr Licht auf die Pläne seines Unternehmens zum Aufbau allgemeiner künstlicher Intelligenz geworfen hatte. Er notiert dass Trainingsdaten ein großer Vorteil von Meta sind. Das Unternehmen schätzt, dass die auf Facebook und Instagram geteilten Fotos und Videos einen Datensatz darstellen, der größer ist als der Common Crawl. Dabei handelt es sich um einen Datensatz von rund 250 Milliarden Webseiten, der zum Trainieren anderer KI-Modelle verwendet wurde. Meta kann auf beides zugreifen und muss die über Facebook und Instagram gesammelten Daten nicht mit anderen teilen.

Die Zusage, KI-generierte Inhalte umfassender zu kennzeichnen, kommt auch nur einen Tag, nachdem Metas Aufsichtsgremium festgestellt hat, dass ein Video, das irreführend bearbeitet wurde, um zu suggerieren, dass Präsident Joe Biden wiederholt die Brust seiner Enkelin berührt habe, auf den Plattformen des Unternehmens verbleiben darf. Tatsächlich klebte Biden einfach einen „Ich habe gewählt“-Aufkleber auf ihr T-Shirt, nachdem sie zum ersten Mal persönlich abgestimmt hatte. Der Vorstand entschied, dass das Video gemäß Metas Regeln zu manipulierten Medien zulässig sei, forderte das Unternehmen jedoch auf, diese Community-Richtlinien zu aktualisieren.

source-115

Leave a Reply