Das iPhone 15 setzt auf intuitive KI, nicht auf generative KI


Einführung technischer Produkte im Jahr 2023 sind vorhersehbar geworden: Alles ist jetzt mit generativen KI-Funktionen ausgestattet, die gesprächige, aber sachkundige Texte oder atemberaubende Bilder liefern. Die Einführung des iPhone 15 in dieser Woche zeigt, dass Apple sich für „Think Different“ entscheidet.

Das neue Gerät ist mit dem A17 Pro-Prozessor ausgestattet, einem von Apple entwickelten Chip, der den Algorithmen des maschinellen Lernens mehr Leistung verleiht. Aber die Features, die gestern bei der Einführungsveranstaltung hervorgehoben wurden, waren im Allgemeinen subtil und nicht verblüffend. Das Unternehmen scheint sich also auf KI zu konzentrieren intuitiv nicht generativ, sodass künstliche Intelligenz zu einem Teil Ihres Lebens wird, der Störungen ausgleicht oder hilfreiche Vorhersagen bietet, ohne aufdringlich zu sein. Apple traf Anfang dieses Jahres auf seiner Entwicklerkonferenz im Juni eine ähnliche Entscheidung, um den Zug der generativen KI zu ignorieren.

Eine neue Sprachisolationsfunktion für das iPhone 15 nutzt beispielsweise maschinelles Lernen, um den Klang Ihrer Stimme zu erkennen und darauf zu reagieren und so Hintergrundgeräusche bei Telefonanrufen zu dämpfen. Wie bei iPhone-Neueinführungen üblich, wurde bei der gestrigen Veranstaltung viel Zeit mit der Leistungsfähigkeit der Kamera und der Bildverbesserungssoftware des neuen Telefons verbracht. Auch diese Funktionen basieren auf KI, einschließlich der automatischen Erkennung von Personen, Hunden oder Katzen in einem Bilderrahmen, um Tiefeninformationen zu sammeln, die dabei helfen, jedes Foto nachträglich in ein Porträt zu verwandeln.

Zusätzliche KI-gestützte Dienste kommen über das neue Betriebssystem iOS 17, das nächste Woche erscheint, auch auf neuere iPhone-Modelle. Dazu gehören die automatische Transkription von Voicemails, sodass eine Person sehen kann, wer anruft, bevor sie einen Anruf entgegennimmt, sowie umfassendere Textempfehlungen mit Textvorhersage über die iPhone-Tastatur. Keiner von beiden ist so auffällig wie ein Besserwisser-Chatbot. Aber indem sie das Leben einfacher machen, könnten sie die Menschen vielleicht davon überzeugen, mehr Zeit mit ihren Telefonen zu verbringen, und so die Nutzung der Dienste von Apple steigern.

Auch in einigen Neuerungen ist Apples intuitive KI am Werk Barrierefreiheitsfunktionen. Für Menschen, die blind oder sehbehindert sind, können sie mit einer neuen Point-and-Speak-Funktion in der Magnifier-App die Kamera mit Tasten wie einer Mikrowelle auf Objekte richten und hören, wie ihr Telefon sagt, welchen Finger sie berührt. Für Menschen mit Erkrankungen wie ALS, die einer Person die Fähigkeit zum Sprechen nehmen können, kann iOS 17 eine synthetische Stimme erzeugen, die wie sie klingt, nachdem sie 15 Minuten Textansagen gelesen haben.

Es ist schwierig geworden, Smartphones mit transformativen neuen Funktionen zu verbessern, und insgesamt war die Markteinführung des iPhone 15 enttäuschend, sagt Tuong Nguyen, Chefanalyst bei Gartner für neue Technologien. Aber Apple zeichnet sich durch die Art des Interface-Designs aus, das subtile KI-gestützte Funktionen zum Funktionieren bringt.

Nguyen meint, dass die adaptive Audiofunktion, die Musik oder Anrufe mit Stimmen oder Umgebungsgeräuschen in der Nähe mischt und diesen Herbst für die AirPods auf den Markt kommen soll, und die neue „Doppeltipp“-Geste, die eine Apple Watch Series 9 mit einem einfachen Antippen von Zeigefinger und Daumen steuert – Beide basieren auf maschinellem Lernen und haben das Potenzial, so intuitive Funktionen zu entwickeln, dass sie zu einem Standard werden, den andere Unternehmen nachahmen.

source-114

Leave a Reply