Die Google-Bildersuche zeigt jetzt den Verlauf eines Fotos an. Kann es Fälschungen erkennen?


Google hat betont, dass das Metadatenfeld in „Über dieses Bild“ kein todsicherer Weg ist, um den Ursprung oder die Herkunft eines Bildes zu erkennen. Es dient vor allem dazu, mehr Kontext zu liefern oder den gelegentlichen Internetnutzer zu warnen, wenn ein Bild viel älter ist, als es den Anschein hat – was darauf hindeutet, dass es jetzt möglicherweise für andere Zwecke verwendet wird – oder wenn es bereits im Internet als problematisch gemeldet wurde.

Herkunft, Schlussfolgerung, Wasserzeichen und Medienkompetenz: Dies sind nur einige der Wörter und Ausdrücke, die von den Forschungsteams verwendet werden, deren Aufgabe nun darin besteht, computergenerierte Bilder zu identifizieren, während sie sich exponentiell vervielfachen. Aber alle diese Tools sind in gewisser Weise fehlbar, und die meisten Unternehmen – einschließlich Google – erkennen an, dass das Erkennen gefälschter Inhalte wahrscheinlich ein mehrstufiger Ansatz sein wird.

Kate Knibbs von WIRED berichtete kürzlich über Wasserzeichen, das digitale Stempeln von Online-Texten und Fotos, damit ihre Herkunft zurückverfolgt werden kann, als eine der vielversprechenderen Strategien; so vielversprechend, dass OpenAI, Alphabet, Meta, Amazon und Googles DeepMind alle Wasserzeichentechnologie entwickeln. Knibbs berichtete auch darüber, wie leicht Forschergruppen bestimmte Arten von Wasserzeichen aus Online-Bildern „auswaschen“ konnten.

Reality Defender, ein New Yorker Startup, das seine Deepfake-Detektortechnologie an Regierungsbehörden, Banken sowie Technologie- und Medienunternehmen verkauft, glaubt, dass es nahezu unmöglich ist, die „Grundwahrheit“ von KI-Bildern zu erfahren. Ben Colman, Mitbegründer und CEO des Unternehmens, sagt, dass die Herkunftsfeststellung kompliziert sei, weil dafür die Zustimmung jedes Herstellers, der ein Bilderzeugungsgerät verkauft, in Bezug auf bestimmte Standards erforderlich sei. Er glaubt auch, dass Wasserzeichen möglicherweise Teil eines Toolkits zur KI-Erkennung sind, aber es ist „nicht das stärkste Tool im Toolkit“.

Reality Defender konzentriert sich stattdessen auf Schlussfolgerungen – im Wesentlichen auf die Verwendung von mehr KI, um KI zu erkennen. Sein System scannt Text-, Bild- oder Video-Assets und gibt eine Wahrscheinlichkeit von 1 bis 99 Prozent an, ob das Asset auf irgendeine Weise manipuliert wurde.

„Auf höchster Ebene lehnen wir jede Anforderung ab, die dem Verbraucher die Pflicht auferlegt, echte von gefälschten Produkten zu unterscheiden“, sagt Colman. „Mit den Fortschritten in der KI und Betrug im Allgemeinen können selbst die Doktoranden in unserem Raum den Unterschied zwischen echt und falsch auf Pixelebene nicht erkennen.“

Bis dahin wird Googles „Über dieses Bild“ unter der Annahme existieren, dass die meisten Internetnutzer beiseite von Forschern und Journalisten möchten mehr über dieses Bild wissen – und dass der bereitgestellte Kontext dazu beiträgt, die Person darauf hinzuweisen, wenn etwas nicht stimmt. Bemerkenswert ist auch, dass Google in den letzten Jahren Pionierarbeit bei der Transformer-Architektur geleistet hat, die das T in ChatGPT umfasst. der Schöpfer eines generativen KI-Tools namens Bard; der Hersteller von Werkzeugen wie Magic Eraser und Magic Memory, die Bilder verändern und die Realität verzerren. Es ist Googles generative KI-Welt, und die meisten von uns versuchen nur, sich darin zurechtzufinden.

source-114

Leave a Reply