Gericht verbietet die Verwendung von „KI-gestützten“ Videobeweisen, weil KI nicht so funktioniert


Ein Richter im US-Bundesstaat Washington hat die Einreichung von Videobeweisen, die „KI-verbessert“ wurden, in einem Dreifachmordprozess blockiert. Und das ist auch gut so, wenn man bedenkt, dass offenbar zu viele Leute darüber nachdenken, sich zu bewerben KI-Filter kann ihnen Zugang zu geheimen visuellen Daten verschaffen.

Richter Leroy McCullough in King County, Washington, schrieb in einem neuen Urteil, dass die KI-Technologie „undurchsichtige Methoden verwendet, um darzustellen, was das KI-Modell ‚denkt‘, dass es gezeigt werden sollte“, laut einem neuen Bericht von NBC-Nachrichten Dienstag. Und das ist ein erfrischendes Stück Klarheit darüber, was mit diesen KI-Tools in einer Welt des KI-Hypes passiert.

„Dieses Gericht kommt zu dem Schluss, dass die Zulassung dieser Al-verstärkten Beweise zu einer Verwirrung der Sachlage und einer Verwirrung der Augenzeugenaussagen führen würde und zu einem zeitaufwändigen Prozess innerhalb eines Prozesses über das von Experten angewandte Verfahren ohne Peer-Review führen könnte das KI-Modell“, schrieb McCullough.

In dem Fall geht es um Joshua Puloka, einen 46-Jährigen, der beschuldigt wird, in einer Bar etwas außerhalb von Seattle drei Menschen getötet und zwei weitere verletzt zu haben im Jahr 2021. Die Anwälte von Puloka wollten ein von einem Passanten aufgenommenes und mit KI optimiertes Mobiltelefonvideo einführen, obwohl nicht klar ist, was ihrer Meinung nach aus dem veränderten Filmmaterial entnommen werden könnte.

Berichten zufolge haben die Anwälte von Puloka einen „Experten“ für kreative Videoproduktion eingesetzt, der noch nie zuvor an einem Strafverfahren gearbeitet hatte, um das Video zu „verbessern“. Das KI-Tool, das dieser namenlose Experte verwendete, wurde von einem in Texas ansässigen Unternehmen entwickelt Topaz Labsdas jedem mit einer Internetverbindung zur Verfügung steht.

Die Einführung KI-gestützter Bildgebungstools in den letzten Jahren hat zu weit verbreiteten Missverständnissen darüber geführt, was mit dieser Technologie möglich ist. Viele Menschen glauben, dass die Ausführung eines Fotos oder Videos durch KI-Upscaler Ihnen eine bessere Vorstellung von den bereits vorhandenen visuellen Informationen geben kann. Aber in Wirklichkeit liefert die KI-Software kein klareres Bild der im Bild enthaltenen Informationen – die Software schon hinzufügen Informationen, die überhaupt nicht vorhanden waren.

Beispielsweise gab es eine weit verbreitete Verschwörungstheorie, dass Chris Rock eine Art Gesichtspolster trug, als er 2022 bei der Oscar-Verleihung von Will Smith geohrfeigt wurde. Die Theorie entstand, weil die Leute anfingen, Screenshots der Ohrfeige über Bild-Upscaler laufen zu lassen, weil sie glaubten, sie hätten dies getan Könnte einen besseren Blick darauf werfen Was ist passiert.

Aber das passiert nicht, wenn Sie Bilder durch KI-Verbesserung bearbeiten. Das Computerprogramm fügt lediglich weitere Informationen hinzu, um das Bild schärfer zu machen, was oft zu einer Verzerrung des tatsächlichen Bildes führen kann. Mit dem Schieberegler unten können Sie das verpixelte Bild sehen, das viral ging, bevor die Leute damit begannen, es durch KI-Programme zu füttern und Dinge „entdeckten“, die in der Originalübertragung einfach nicht vorhanden waren.

Unzählige hochauflösende Fotos und Videos des Vorfalls zeigen eindeutig, dass Rock keine Binde im Gesicht hatte. Aber das hinderte die Leute nicht daran zu glauben, dass sie durch die „Hochskalierung“ des Bildes auf „8K“ etwas sehen könnten, das ihnen in der Öffentlichkeit verborgen blieb.

Der Aufstieg von Produkten, die als KI gekennzeichnet sind, hat beim Durchschnittsbürger zu großer Verwirrung darüber geführt, was diese Tools wirklich leisten können. Große Sprachmodelle wie ChatGPT haben ansonsten intelligente Menschen davon überzeugt, dass diese Chatbots zu komplexen Überlegungen fähig sind, wenn das unter der Haube einfach nicht passiert. LLMs sagen im Wesentlichen nur das nächste Wort voraus, das sie ausspucken sollten, um wie ein plausibler Mensch zu klingen. Aber weil sie ziemlich gut wie Menschen klingen, glauben viele Benutzer, dass sie etwas Anspruchsvolleres als einen Zaubertrick machen.

Und das scheint die Realität zu sein, mit der wir so lange leben werden Milliarden von Dollar fließen in KI-Unternehmen. Viele Menschen, die es besser wissen sollten, glauben, dass sich hinter den Kulissen etwas Tiefgreifendes abspielt, und machen dafür schnell „Voreingenommenheit“ und zu strenge Leitplanken verantwortlich. Aber wenn man etwas tiefer gräbt, entdeckt man diese sogenannte Halluzinationen Sind das nicht irgendwelche geheimnisvollen Kräfte, die von Menschen ausgeübt werden, die zu wach sind, oder was auch immer? Sie sind einfach ein Produkt dieser KI-Technologie, die ihren Job nicht besonders gut macht.

Glücklicherweise hat ein Richter in Washington erkannt, dass diese Technologie nicht in der Lage ist, ein besseres Bild zu liefern. Allerdings bezweifeln wir nicht, dass es in den USA viele Richter gibt, die sich dem KI-Hype angeschlossen haben und die Auswirkungen nicht verstehen. Es ist nur eine Frage der Zeit, bis wir ein KI-gestütztes Video vor Gericht verwenden, das nichts anderes zeigt als visuelle Informationen, die lange nachträglich hinzugefügt werden.

source-113

Leave a Reply