Da die Verbreitung von KI weiterhin die Schlagzeilen dominiert, scheint keine Branche davor gefeit zu sein, irgendeine Version der Technologie in ihre Zukunftsvision zu übernehmen. In diesem Fall ist KI jedoch nicht nur in den Nachrichten, sie ist es auch, der sie Ihnen vorliest. Mit freundlicher Genehmigung von Ars Technicaneuer Startup-Kanal 1 hat a gezeigt Proof-of-Concept-Video Die Demonstration von KI-Avataren als Nachrichtenmoderatoren, und die Ergebnisse sind wirklich beeindruckend und ein kopfüberer Sprung in die Tiefen des unheimlichen Tals.
Diese KI-Avatare basieren auf realen Menschen (die, wie wir erfahren haben, „für die Verwendung ihres Abbilds entschädigt wurden“) und stützen sich auf sogenannte „hochentwickelte Systeme hinter den Kulissen“, um ihre Stimmführung, Manierismen und Ausdrücke zu erzeugen , und auf den ersten Blick sind die Ergebnisse bemerkenswert überzeugend.
Die Lippensynchronisation gehört zu den besten, die ich je gesehen habe, mit schwierigen Silbenfolgen, die mit bemerkenswerter Genauigkeit gehandhabt werden, und sie wirken, in Ermangelung eines besseren Ausdrucks, wie glaubwürdige Menschen. Das Gestikulieren ist genau das Richtige für jemanden, der ein paar Kurse zum Präsentieren vor der Kamera für Dummies absolviert hat, und abgesehen von dem einen oder anderen verschwommenen Moment, der verrät, dass es sich bei dem, was man sieht, möglicherweise um ein KI-generiertes Faksimile handelt, ist es ziemlich überzeugend Anzeige von techn.
Aber wie bei allen Simulationen eines echten Menschen bisher sind es die Dinge, die man nicht genau beschreiben kann, die den Film enttäuschen.
Es ist etwas an der Aufrichtigkeit und dem Tempo der Darbietung, das einfach nicht stimmt, bis zu dem Punkt, dass ich, je länger ich zusah, immer mehr das Gefühl hatte, als würde sich jemand von hinten an mich heranschleichen. Die KI-Menschen scheinen bereits hier zu sein, und in diesem Fall starren sie fast ohne zu blinzeln direkt in deine Seele.
Es hilft nicht, dass diese Avatare so aussehen, als wären sie auf einer Mischung bestehender Nachrichtenmoderatoren trainiert worden, und die KI scheint ihre Version des stereotypen Stimmrhythmus eines Nachrichtensprechers als dick wie Melasse interpretiert zu haben. Es ist, als wäre der Ton etwas zu sehr verlangsamt worden, und das, kombiniert mit den leeren Gesichtsausdrücken und dem seelenlosen Lächeln, lässt die kleinen Haare in meinem Nacken aufstehen.
Ja, es ist eine sehr coole Tech-Demo. Aber wow, ich fühlte mich schon nach ein paar Minuten so unwohl, dass es etwas schwierig wurde, mir das Ganze anzusehen.
Abgesehen von den etwas erschreckenden Referenten gibt es im Video tatsächlich einige Anwendungsfälle für KI, die sehr sinnvoll sind. Als Beispiel wird ein vorab aufgezeichnetes Interview mit einem (echten) Franzosen angeführt, der erklärt, wie sein Eigentum durch einen kürzlichen Sturm in, unglaublich, Französisch, beschädigt wurde.
Der Clip wird dann noch einmal abgespielt, allerdings mit einer KI-Übersetzung des Filmmaterials ins Englische, einschließlich Lippensynchronisation, und das Ergebnis ist so bemerkenswert überzeugend, dass ich, wenn ich es nicht im Voraus darüber informiert hätte, meiner Meinung nach keine Fälschung entdecken würde alle.
Terminberichte dass die Beiträge von Channel 1 von „einer noch bekannt gegebenen Nachrichtenagentur“ und Inhalte von unabhängigen Journalisten bezogen werden und dass die Nachrichtenberichte selbst aus Primärquellen wie Regierungsdokumenten erstellt werden, wobei Menschen „bei jedem Schritt“ beteiligt sind den redaktionellen Prozess“. Der kommende Kanal plant außerdem, ein Symbol in der Ecke des Bildschirms anzuzeigen, um den Zuschauern mitzuteilen, welche Teile des Programms KI-generiert sind.
Unabhängig davon, dass insbesondere Nachrichtensprecher hart daran arbeiten, ein gewisses Maß an Autorität und Vertrauen bei ihrem Publikum aufzubauen, bedeutet die Tatsache, dass dies angeblich mit einem so hohen Grad an Genauigkeit simuliert werden kann, dass diese Technologie letztendlich für schändliche Zwecke genutzt werden kann – wie die Verbreitung von Fehlinformationen oder gefährlicher Propaganda – kann durchaus Anlass zur Sorge geben.
Es scheint, dass kaum ein Tag vergeht, ohne dass irgendeine Art von KI-Rubikon überschritten wird, aber dies ist ein besonders haarsträubendes Beispiel für die Technologie, die auf einige möglicherweise beunruhigende künftige Verwendungsmöglichkeiten hinweist. Deep Fakes sind seit einiger Zeit ein großes Problem, und da sich die Technologie zur vollständigen Simulation eines vernünftigen Menschen bis zu dem Punkt, an dem die Unterschiede nur noch schwer oder gar nicht mehr zu erkennen sind, rasant zu entwickeln scheint, werden die ethischen Bedenken größer mehr, nun ja, besorgniserregend.
Dennoch denke ich, dass wir es inzwischen zumindest als technische Errungenschaft bewundern können. Während diese Avatare möglicherweise auf echten Menschen basieren, wird etwas weiter im Video ein vollständig von der KI erstellter Moderator enthüllt, der einen Bericht über Autos hält, aber die Ergebnisse sind weitaus weniger überzeugend.
Kleine Gnade also und ein Beweis dafür, dass die Technologie noch einiges zu bieten hat. Aber angesichts der Demonstration hier scheint es nicht mehr lange zu dauern, bis KI-Avatare und echte Menschen wirklich in die Bereiche des Ununterscheidbaren vordringen.