Google möchte, dass Ihre Geräte Ihr bester Freund sind | Bildschirm Rant

Menschen geben spezifische Signale, wenn sie interagieren, und Google möchte, dass seine Geräte sie gut kennen. Mehrere Google-Produkte können Körpersprache lesen und sind “sich ihres eigenen Raumes bewusst.” Der Nest Hub kann Gesten erfassen. Benutzer können die intelligenten Alarme von Google mit nur einem Wisch ausschalten, das Pixel verfügt über eine Bewegungserkennung und sogar ihr Thermostat kann erkennen, ob sich eine Person direkt davor befindet.

All diese Geräte, die simulieren “das Bewusstsein” werden von alter Technologie, dem Radar, angetrieben. Den Experten von Google ist es gelungen, die Radartechnologie zu aktualisieren, zu miniaturisieren und zu digitalisieren. Sie nennen es Soli. Soli sendet wie jedes Radar elektromagnetische Wellen aus und interpretiert, wie diese Wellen in 3D-Dimensionen beeinflusst werden Lernen, kann es Dinge erkennen, für deren Erkennung es programmiert wurde, wie eine sich bewegende Hand.

Verwandte: Pixel 7 und Pixel 7 Pro sind gerade durchgesickert – so sehen sie aus

Google Advanced Technology & Projects (ATAP) Team bringt die Soli-Radartechnologie an ihre Grenzen. Sie möchten, dass Geräte in der Lage sind, die Absichten und den Grad des Engagements der Benutzer zu erkennen und Gesten als Befehle zu verwenden. Eine einfache Drehung oder ein Blick auf ein Gerät würde es in Aktion setzen. Das Team untersuchte die grundlegende menschliche Körpersprache und programmierte bereits eine breite Palette von Hinweisen und Interaktionen. Geräte “sollte sich wie ein bester Freund anfühlen”, der Senior Interaction Designer bei ATAP, Lauren Bedal, erzählt Engadget.

Die Google ATAP-Teams sagen, dass sie Geräte so programmieren, dass sie nicht aufdringlich sind. Soli kennt jetzt die nonverbalen Aspekte der Menschen, wie ihre Nähe, Körpersprache und sogar Biosignale wie Herzschlag und Atmung. Von Mikrogesten, die Finger verwenden, bis hin zu vollständigen Handbewegungen oder der Erkennung, ob ein Benutzer gerade vorbeigeht, hat das Team ein “Bibliothek der Bewegungen” was Soli bewusst macht.

Es ist eine wohlbekannte Tatsache, dass Technologie darauf programmiert ist, die Aufmerksamkeit der Menschen zu wecken. Tägliche Benachrichtigungen auf Mobiltelefonen und das stundenlange Scrollen in endlosen Social Stories, die wenig bis gar keinen Wert haben, sind nur die Spitze des Eisbergs. Die Technologiebranche wurde befragt, weil sie “Belohnung” um die Benutzer am Netz zu halten. Seltsamerweise verwendet Deep Learning, das den kleinen Soli-Chip von Google antreibt, auch “digitale Belohnungen” Engagementziele zu erreichen.

Bei dieser Art von Technologie stellen sich zwangsläufig mehrere Fragen. Beispielsweise kann die Wiedergabe eines Videos anhalten, wenn ein Benutzer den Raum verlässt, und fortgesetzt werden, wenn er zurückkommt. Aber die Frage ist, hätte der Benutzer das Video weiter angesehen, wenn es nicht automatisch abgespielt worden wäre? Erregt die automatische Wiedergabe nicht die Aufmerksamkeit des Benutzers und beeinflusst sein Verhalten? dürfen Google Geräte wissen wirklich, was die Leute wollen, oder geben die Geräte den Leuten nur, was sie glauben, dass sie es wollen, und nehmen es von dort aus? Obwohl die Technologie unendlich viele Verwendungsmöglichkeiten zu haben scheint, kann es schließlich ärgerlich sein, wenn das Telefon aufleuchtet, nur weil ein Benutzer es bewegt hat.

Weiter: Wer ist führend in der autonomen Bereitstellung? Es ist nicht Google, es ist dieser Roboter

Quelle: Google ATAP/Soli, Engagement

source site-69

Leave a Reply