Apple-Patent besagt, dass Siri darauf trainiert werden könnte, Ihre Lippen zu lesen


Wie bei vielen Anfragen an Apples Hilfsbot kommt auch die Aufforderung an Siri, „meine Lippen zu lesen“, mit der Meldung „Ich bin nicht sicher, ob ich das verstehe“ zurück. Schließlich scheut sich Apple bisher, viel zu reden über moderne KI-Systeme. Warum sollte der Spracherkennungsdienst mich auch wie HAL 9000 anstarren wollen? 2001: Odyssee im Weltraum?

Ein neu enthülltes Patent aus Apple zeigt, dass das Unternehmen aktiv darüber nachgedacht hat, was ein proprietäres Produkt ist Lippe-Leseprogramm aussehen würde. Die Patentanmeldung wurde ursprünglich im Januar eingereicht dieses Jahr und beschreibt ein System zur Bestimmung, ob „Bewegungsdaten“ mit einem Wort oder einer Phrase übereinstimmen. In den Diagrammen wird Siri ausdrücklich mit einfachen Sprachbefehlen wie „Hey Siri“, „Überspringen“ oder „Nächstes Lied“ erwähnt und wie all diese Eingaben dank eines Algorithmus verbessert werden können Analysieren der Mundwerkzeuge der Benutzer.

Wie zuerst bemerkt von Apple-InsiderApple erklärt, dass es offensichtliche Probleme mit Spracherkennungssystemen wie Siri gebe. Stimmen können durch Hintergrundgeräusche verzerrt werden, und andere Sensoren, die ständig die Stimmen von Personen überwachen, verbrauchen viel Batterie- und Rechenleistung. Ein solches System würde nicht unbedingt die Kamera eines Geräts verwenden. Stattdessen würde die Spracherkennungssoftware einen der Bewegungssensoren des Telefons verwenden, um das aufzuzeichnen Mund, Hals oder Kopf und stellen Sie fest, ob eine dieser Bewegungen darauf hindeuten könnte menschliche Sprache.

Bei diesen Sensoren könnte es sich um einen angeschlossenen Beschleunigungsmesser oder ein Gyroskop handeln, von denen Apple in seinem Patent anmerkte, dass sie viel weniger wahrscheinlich durch unerwünschte Reize beschädigt werden als ein Mikrofon. Es muss nicht nur ein Telefon sein, denn das Patent beschreibt, wie diese Art von Bewegungserkennungstechnologie integriert werden könnte hinein AirPods oder sogar ein vager Hinweis auf „intelligente Brillen“, was der Fall wäre Senden Sie diese Daten dann an das iPhone eines Benutzers. Dem Dokument zufolge könnten die Geräte subtile Gesichtsmuskeln, Vibrationen oder Kopfbewegungen erkennen. Sicher, Apples Träume von Datenbrillen sind schon vor Jahren geplatztaber das Unternehmen hofft auf große Erfolge damit Vision Pro-Headset.

Für ein solches System würde Apple viele Daten benötigen wie Menschen ihre Mundwerkzeuge benutzen. Das Unternehmen könnte ein „Sprachprofil“ für Benutzer im System einrichten. Siri soll ein iPhone bereits erkennen nicht die Stimme der Hauptnutzer, sondern die von Apple aktuelle Barrierefreiheitsfunktionen haben diese Spracherfassungsfunktion erweitert. Die Live-Speech-Funktion auf iOS kann die Stimmprofile der Benutzer aufzeichnen, die dann von einem Speech-to-Text-System verwendet werden um diese Intonationen und Stimmmuster zu kopieren.

Apple spricht dann von einem „ersten Sprachmodell“, das anhand von Beispieldatensätzen trainiert werden müsste. Es ist nicht klar, ob hierfür ein Modell für maschinelles Lernen erforderlich wäre, aber es wäre sinnvoll, ein KI-Modell zu trainieren, um Gesichtsbewegungen aus einem riesigen Datensatz zu erkennen. Es passt zu Apples eigenem aktuellen Paradigma, KI in den Hintergrund neuer Funktionen zu drängen. Das Unternehmen verwies nur einmal auf ein „Transformer-Sprachmodell“. neueste WWDC wenn man über das Neue des Unternehmens spricht Autokorrekturfunktionen für iOS 17.

Sicher, Apple reicht eine Datei ein viele Patente, manche etwas verrückter als andere. Nicht alle davon werden zu Produkten verarbeitet. Aber da die Idee so neu ist, enthält sie etwas mehr Substanz als einige andere Ideen des Unternehmens aus Cupertino. Gizmodo hat Apple um einen Kommentar gebeten, aber wir haben nicht sofort eine Antwort erhalten.

Apple-Supply-Chain-Analyst Ming-Chi Kuo schrieb Gestern gab Apple an, dass Apples Fortschritte bei der generativen KI „erheblich hinter denen der Konkurrenz zurückbleiben“ und dass es keine Anzeichen dafür gebe, dass das Unternehmen diese Art von Deep-Learning-Modellen in diesem oder im nächsten Jahr in seine Hardwareprodukte integrieren würde. Das ist trotz Berichten Apple hat einen eigenen internen Chatbot entwickelt Codename „Apple GPT“. Apple könnte daran arbeiten, etwas hinzuzufügen mehr KI Funktionen für Sirizumal viele andere Apps bereits eigene Apps erstellt haben KI-basierte Sprachassistenten für Apple-Produkte.

source-113

Leave a Reply