5 Zukunftsszenarien für Google Lens


Als David Pierce über die Übergangsgeburt von Google Lens für WIRED im Jahr 2017 berichtete, bezeichnete er das Tool als „eine langfristige Wette für das Unternehmen und eine Plattform für viele Anwendungsfälle“. In den folgenden Jahren, als Google Lens andere experimentelle Streifzüge überlebte, schrieb die leitende Autorin Lauren Goode über den langen Weg zur Perfektionierung visueller Suchanfragen.

Fünf Jahre später ist Google Lens immer noch großartig, um seltsame Pflanzen zu identifizieren und Schülern dabei zu helfen, ihre Algebra-Hausaufgaben zu erledigen. Je länger es anhält, desto mehr scheint es zu umfassen. Verwenden Sie jemals die umgekehrte Bildersuche? Das wird jetzt von Google Lens unterstützt. Wurde die Lens-Software in der Augmented-Reality-Brille auf der Google I/0 2022 als Prototyp entwickelt? Unbestätigt, aber durchaus möglich.

Google-CEO Sundar Pichai sprach sich bei der Mai-Präsentation des Unternehmens für eine Welt voller Augmented Reality aus, auf die ohne Smartphone zugegriffen werden kann. Er sagte: „Diese AR-Funktionen sind bereits auf Telefonen nützlich, und die Magie wird wirklich lebendig, wenn Sie sie in der realen Welt verwenden können, ohne dass die Technologie im Weg steht.“

Um besser zu verstehen, was auf Google Lens zukommt, besuchte ich das Büro des Unternehmens in San Francisco und setzte mich mit Lou Wang zusammen. Er ist Director of Product Management bei Google und hat jahrelang an Lens gearbeitet.

Auf die Frage, wie er das Gleichgewicht zwischen der Schaffung von Qualitätsfunktionen für jetzt und der Entwicklung in die Zukunft schlägt, klingt Wang überzeugt, dass Telefone und Desktop-Computer auch weiterhin die Gegenwart dominieren werden. „Ich persönlich bin sehr begeistert von Brillen, aber es wird eine Weile dauern, bis sich das ausbreitet“, sagt er. „Unser Fokus liegt also sehr stark auf Smartphones, mit dem Verständnis, dass einige der Dinge, über die wir sprechen, wie die Szenenerkundung, leistungsfähiger werden, wenn Sie Ihr Telefon nicht herausziehen müssen.“

Nach diesem Gespräch habe ich Urlaub in Yosemite gemacht und darüber nachgedacht, was auf uns zukommt, wenn AR-Anwendungen über reale Welträume geschichtet werden, sogar über Orte, die wir besuchen, um abzuschalten und die natürliche Welt zu erleben. Was folgt, sind fünf zukünftige Situationen mit Google Lens. Die Vorhersagen sind illustrativ, nicht allumfassend.

Wanderwege Geführt von AR

Wir schreiben das Jahr 2030 und Sie sind überrascht, wie gut das Elektroauto automatisch durch die kurvenreichen Bergstraßen navigiert, wenn Sie die Überreste von Yosemite erreichen. An diesem rauchigen Morgen surrt ununterbrochen ein Motor aus der Luftreinigungsanlage des Autos. Wenn Sie aus dem Fenster schauen, zeichnet Google Lens Umrisse von Klippen, die an klareren Tagen sichtbar sind.

Nachdem Sie das Lager erreicht und ein Zelt aufgebaut haben, fahren Sie nach Süden zum Mariposa Grove Trail. Auf halbem Weg der Wanderung bemerken Sie ein Schild mit der Aufschrift „AR für genaue historische Nachbildungen aktivieren“. Gut. Ein pulsierender Pfeil, der jetzt in der Luft schwebt, weist Sie in die Richtung des umgestürzten Wawona-Tunnelbaums. Als Sie um die Ecke biegen, ist alles, was existiert, ein kleiner verkohlter Baumstamm. Ein hoch aufragendes 3D-Modell der Mammutpflanze wird blickdicht überlagert. Sie stehen in der Ferne und sehen zu, wie Pferde Familien durch den Tunnel transportieren. Auf dem Rückweg zum Auto fragt man sich, warum sich die Männer früher so angezogen haben.

SEO-Strategien, die sich auf einzigartige Bilder konzentrieren

Sie sind für eine Nacht in Yosemite, um sich zu entspannen, sicher. Sie sind auch hier, um ein paar auffällige, malerische Produktfotos für einen aufstrebenden E-Commerce-Shop zu machen, der kundenspezifische Kletterausrüstung verkauft. Da immer mehr Menschen Produktfotos und kurze Videos verwenden, um mit Lens und den von Lens betriebenen Shop-Suchtools einzukaufen, ist dies eine Ihrer bevorzugten Methoden der Suchmaschinenoptimierung. Sie packen die Beleuchtungsausrüstung für das Shooting aus, während die Sonne untergeht. Die von Ihnen aufgenommenen Fotos werden von konkurrierenden Unternehmen neu erstellt, die Programme mit künstlicher Intelligenz verwenden, um das beste Einkaufsergebnis für Artikel wie Karabiner zu erzielen.

Sie denken an Ihre fotografische Note als Mensch, der diese besondere Essenz einfängt. Du fragst dich, ob du dumm bist.

Von Algorithmen ausgewählte Late-Night-Snacks

Es ist spät in der Nacht, als Sie das Fotoshooting beenden. Keiner der Campingplatz-Snacks, die Sie in die Bärenkiste – ein Relikt aus ökologisch vielfältigen Zeiten – gepackt haben, sieht lecker aus. Sie bitten das Auto, Snacks an der einzigen Tankstelle in der Nähe abzuholen, die die ganze Nacht geöffnet hat. Es ist eine 45-minütige Fahrt, einfache Fahrt. Sie dösen unter den Sternen an der mit Beton gefüllten Lagerfeuergrube ein.

Ein leises Klingeln aus Ihrer Brille lässt Sie wissen, dass das Auto angekommen ist. Ein vom Auto gesendeter Videofeed blitzt über Google Lens vor Ihrem Gesicht auf. Während Sie sich die verschiedenen angebotenen Eiscreme-Geschmacksrichtungen ansehen, bemerkt die AR-Software Ihren Blick und kreist die drei besten Geschmacksrichtungen ein, basierend auf früheren Einkäufen von nächtlichen Snacks. Heute Abend willst du etwas Neues und sagst laut auf dem Campingplatz: „Beliebtester Geschmack in meiner Nähe.“ Ein digitaler Blauhäher steigt von der Spitze Ihrer veränderten Sichtebene herab und setzt sich auf eine mit Tiercrackern gemischte Vanilleeiscreme. Fast zu aufgeregt flüsterst du: „Kaufen. Bestätigen.” Ein kleiner Arm ragt aus dem Auto und legt den Leckerbissen in einen kompakten Gefrierschrank.

source-114

Leave a Reply