Die Ray-Ban Meta-Datenbrillen erhalten KI-gestützte visuelle Suchfunktionen


Dank Verbesserungen am KI-Assistenten des sozialen Netzwerks erhalten die Ray-Ban Meta-Datenbrillen bald einige leistungsstarke Upgrades. Das Unternehmen ist endlich für Echtzeitinformationen an den Bordassistenten, und es beginnt mit dem Testen neuer „multimodaler“ Funktionen, die es ihm ermöglichen, Fragen basierend auf Ihrer Umgebung zu beantworten.

Bisher hatte Meta AI einen „Wissensgrenzwert“ von Dezember 2022, sodass Fragen zu aktuellen Ereignissen oder Dingen wie Spielständen, Verkehrsbedingungen oder anderen Fragen, die unterwegs besonders nützlich wären, nicht beantwortet werden konnten. Aber das ändert sich jetzt, so Meta-CTO Andrew Bosworth, der sagte, dass alle Meta-Datenbrillen in den Vereinigten Staaten nun in der Lage sein werden, auf Echtzeitinformationen zuzugreifen. Die Änderung werde „teilweise“ von Bing vorangetrieben, fügte er hinzu.

Unabhängig davon beginnt Meta damit, eine der interessanteren Fähigkeiten seines Assistenten zu testen, die es „multimodale KI“ nennt. Die Funktionen, zunächst während Connect, ermöglichen es Meta AI, kontextbezogene Fragen zu Ihrer Umgebung und andere Fragen basierend auf dem, was Sie durch die Brille betrachten, zu beantworten.

Meta AI ist neu Meta AI ist neu

Meta

Die Updates könnten einen großen Beitrag dazu leisten, dass sich Meta AI weniger aufwendig und dafür nützlicher anfühlt, was einer meiner größten Kritikpunkte an der ansonsten beeindruckenden Datenbrille war. Leider wird es wohl noch einige Zeit dauern, bis die meisten Menschen mit der Datenbrille auf die neue multimodale Funktionalität zugreifen können. Bosworth sagte, dass die Betaversion mit frühem Zugriff in den USA zunächst nur für eine „kleine Anzahl von Personen verfügbar sein wird, die sich dafür entscheiden“, wobei der erweiterte Zugriff voraussichtlich irgendwann im Jahr 2024 erfolgen wird.

Beide Wir haben einige Videos der neuen Funktionen geteilt, die einen Eindruck davon vermitteln, was möglich sein könnte. Basierend auf den Clips scheint es, dass Benutzer die Funktion mit Befehlen aktivieren können, die mit „Hey Meta, schau und sag es mir“ beginnen. Zuckerberg bittet Meta AI beispielsweise, sich ein Hemd anzusehen, das er in der Hand hält, und nach Vorschlägen für Hosen zu fragen, die dazu passen könnten. Er teilte auch Screenshots, die zeigen, wie Meta AI ein Bild einer Frucht identifiziert und den Text eines Memes übersetzt.

In einem Auf Threads gepostet, sagte Bosworth, dass Benutzer Meta AI auch nach ihrer unmittelbaren Umgebung fragen könnten sowie kreativere Fragen wie das Verfassen von Bildunterschriften für Fotos, die sie gerade aufgenommen haben.



source-115

Leave a Reply