Mark Zuckerberg, Chef der Organisation, die früher als Facebook bekannt war, hat sein erstes Interview abgeschlossen, das vollständig im gleichnamigen Metaverse seines Unternehmens geführt wurde. Und es ist irgendwie beeindruckend, irgendwie beunruhigend und irgendwie meh, alles in einem.
Zuckerberg hat sich angeschlossen Lex Fridman für das Interview, ein Podcaster, von dem er bereits mehrfach interviewt wurde. Zuckerberg und Fridman befanden sich weit voneinander entfernt, Fridman in Austin, Texas, und Zuckerberg vermutlich im Hauptsitz von Meta in Kalifornien.
Für das Interview wurden beide detaillierten physischen Scans unterzogen und außerdem einer Art Mimik- und Bewegungstrainingsprozess unterzogen, der möglicherweise einer komplexeren Version der Trainingsroutinen ähnelt, die zum Erlernen biometrischer Daten für die Smartphone-Sicherheit, einschließlich Fingerabdrücken und Gesichtern, verwendet werden.
Zuckerberg erklärt, dass diese Daten dann in einem Codec zusammengefasst werden, der wiederum mit Sensordaten von einem VR-Headset kombiniert wird, um einen lebensechten digitalen Avatar zu erstellen. Das Besondere daran ist, dass dieser Codec-Ansatz dazu führt, dass die erforderliche Bandbreite relativ begrenzt ist. Sobald jede Partei über eine Kopie des digitalen Avatars der anderen Partei verfügt, sind die für ihre Animation erforderlichen Daten viel geringer als beispielsweise für die Übertragung hochauflösender digitaler Videos.
Theoretisch haben Sie also etwas viel Realistischeres als Video, aber mit weniger Bandbreite. Aber wie realistisch? Bis zu einem gewissen Punkt können Sie es selbst beurteilen. Fridman hat eine hochgeladen 2D-Darstellung des Interviews auf seinem YouTube-Kanal einschließlich beider Avatare.
Leider ist das Video nur 1080p. Aber selbst bei dieser relativ niedrigen Auflösung kann man erkennen, dass die Avatare eine ziemlich eindeutige CGI-Atmosphäre haben. Sie sind auf jeden Fall gut, aber niemand, der auch nur ansatzweise mit moderner CGI vertraut ist, würde sie mit Live-Videos verwechseln.
Natürlich hilft der Charakter der Protagonisten selbst wohl nicht weiter. Man würde weder Fridman noch Zuckerberg als besonders gefühlsbetont einstufen. Ihr wahres Selbst kann ziemlich roboterhaft sein. Inwieweit das synthetische Gefühl dieser digitalen Avatare auf die Übersetzung in Codecs oder nur auf die tatsächliche Haltung dieser eher ungewöhnlichen Protagonisten zurückzuführen ist, ist eine offene Frage.
Dennoch haben die Avatare ein etwas flaches, digitalisiertes Gefühl, das wahrscheinlich nicht ausschließlich auf die physische Haltung von Zuckerberg und Fridman zurückzuführen ist. Allerdings ist das Erlebnis zweifellos um Größenordnungen beeindruckender und immersiver, wenn man tatsächlich ein VR-Headset verwendet.
Aus dem hochgeladenen Video geht außerdem hervor, dass Meta das Problem der Latenz im Großen und Ganzen gelöst hat. Die beiden scheinen ein vollkommen natürliches, fließendes Gespräch zu führen, trotz der ziemlich umfangreichen Verarbeitung, die zwischen jeder Sprache oder jedem Gesichtsausdruck und den erfassten Verhaltensweisen, der Übersetzung in den Codec und der Übertragung an den anderen Benutzer stattfinden muss.
Was die verwendete Hardware angeht, sieht es auf den ersten Blick wie Meta Quest Pro-Headsets aus, plus einem Satz ziemlich schwerer Dosen. Und das bleibt tatsächlich der Haupteinwand gegen diese Art von Erlebnis: die klobige Hardware, die man tragen muss.
Wie auch immer, schauen Sie sich das Video selbst an, während Sie auf Metas heißes neues VR-Headset Quest 3 warten, das am 10. erscheint. Seien Sie gespannt auf unsere eigene Sicht auf die Hardware.