Googles Barrierefreiheits-App Lookout kann die Kamera Ihres Telefons nutzen, um Objekte zu finden und zu erkennen


Google hat Aktualisiert Einige seiner Barrierefreiheits-Apps wurden um Funktionen erweitert, die die Nutzung für Menschen, die sie benötigen, einfacher machen. Es wurde eine neue Version des herausgebracht Achtung App, die Menschen mit Sehbehinderung oder Blindheit Texte und sogar längere Dokumente vorlesen kann. Die App kann auch Lebensmitteletiketten lesen, Währungen erkennen und Benutzern mitteilen, was sie durch die Kamera und in einem Bild sehen. Die neueste Version verfügt über einen neuen „Such“-Modus, der es Benutzern ermöglicht, aus sieben Artikelkategorien auszuwählen, darunter Sitzgelegenheiten, Tische, Fahrzeuge, Utensilien und Badezimmer.

Wenn Benutzer eine Kategorie auswählen, kann die App damit verbundene Objekte erkennen, wenn der Benutzer seine Kamera durch einen Raum bewegt. Anschließend wird ihnen die Richtung oder Entfernung zum Objekt angezeigt, sodass Benutzer leichter mit ihrer Umgebung interagieren können. Google hat außerdem eine In-App-Aufnahmeschaltfläche eingeführt, mit der sie Fotos aufnehmen und schnell KI-generierte Beschreibungen erhalten können.

Ein Screenshot, der Objektkategorien in Google Lookout zeigt, z. B. Sitzgelegenheiten und Tische, Türen und Fenster, Tassen usw.Ein Screenshot, der Objektkategorien in Google Lookout zeigt, z. B. Sitzgelegenheiten und Tische, Türen und Fenster, Tassen usw.

Google

Das Unternehmen hat seine aktualisiert Schauen Sie, um zu sprechen App, auch. Mit Look to Speak können Benutzer mit anderen Personen kommunizieren, indem sie mithilfe von Augengesten aus einer Liste von Phrasen auswählen, die die App laut aussprechen soll. Jetzt hat Google einen textfreien Modus hinzugefügt, der ihnen die Möglichkeit gibt, Sprache auszulösen, indem sie aus einem Fotobuch mit verschiedenen Emojis, Symbolen und Fotos auswählen. Noch besser ist, dass sie die Bedeutung jedes Symbols oder Bildes für sie personalisieren können.

Google hat außerdem seine Screenreader-Funktionen für Lens in Maps erweitert, sodass es dem Benutzer die Namen und Kategorien der angezeigten Orte wie Geldautomaten und Restaurants mitteilen kann. Es kann ihnen auch sagen, wie weit ein bestimmter Ort entfernt ist. Darüber hinaus werden Verbesserungen für die detaillierte Sprachführung eingeführt, die dem Benutzer mit akustischen Ansagen sagen, wohin er gehen soll.

Schließlich hat Google die Rollstuhlinformationen von Maps vier Jahre nach der Einführung auf Android und iOS auch auf dem Desktop zugänglich gemacht. Mit der Funktion „Barrierefreie Orte“ können Benutzer sehen, ob der Ort, den sie besuchen, ihren Bedürfnissen entspricht – Unternehmen und öffentliche Veranstaltungsorte mit einem barrierefreien Eingang werden beispielsweise mit einem Rollstuhlsymbol angezeigt. Sie können die Funktion auch nutzen, um zu sehen, ob ein Standort über barrierefreie Waschräume, Sitzgelegenheiten und Parkplätze verfügt. Das Unternehmen gibt an, dass Maps derzeit über Barrierefreiheitsinformationen für über 50 Millionen Orte verfügt. Wer Rollstuhlinformationen lieber auf Android und iOS sucht, kann jetzt auch ganz einfach Bewertungen mit Schwerpunkt auf Rollstuhlzugang filtern.

Google machte all diese Ankündigungen auf der diesjährigen I/O-Entwicklerkonferenz, wo es auch enthüllte, dass es mehr Code für die freihändige „Maus“ von Project Gameface als Open-Source-Version bereitgestellt hat, sodass Android-Entwickler ihn für ihre Apps verwenden können. Mit dem Tool können Benutzer den Cursor mit ihren Kopfbewegungen und Gesichtsgesten steuern, sodass sie ihre Computer und Telefone einfacher verwenden können.

Informieren Sie sich über alle Neuigkeiten von Google I/O 2024 Hier!

Dieser Artikel enthält Affiliate-Links; Wenn Sie auf einen solchen Link klicken und einen Kauf tätigen, erhalten wir möglicherweise eine Provision.

source-115

Leave a Reply