Voice-Cloning-Technologie kommt auf iPhone und iPad, um Menschen mit Behinderungen beim Sprechen zu helfen


Obwohl Software zum Klonen von Stimmen bereits Alarmglocken wegen ihres möglichen Missbrauchs schrillen lässt, nutzt Apple die Technologie, um Menschen mit Behinderungen beim Sprechen zu helfen.

Das Unternehmen heute in der Vorschau angezeigt(Öffnet in einem neuen Fenster) seine „Personal Voice“-Funktion, die später in diesem Jahr durch eine Reihe neuer Barrierefreiheitsverbesserungen für das iPhone und iPad verfügbar sein wird.

„Wer Gefahr läuft, seine Sprachfähigkeit zu verlieren, kann Personal Voice verwenden, um eine synthetische Stimme zu erzeugen, die wie er selbst klingt, um mit Familie und Freunden in Kontakt zu treten“, sagt Apple.

Die Funktion könnte für Menschen hilfreich sein, die an Erkrankungen wie Amyotropher Lateralsklerose (ALS) oder der Lou-Gehrig-Krankheit leiden, die Nervenzellen abbauen und jemanden daran hindern können, mit normaler Stimme zu sprechen.

So funktioniert Personal Voice.

(Quelle: Apple)

Das System von Apple erfordert, dass Benutzer 15 Minuten Audio auf einem iPhone oder iPad aufnehmen, was ausreichen sollte, um ihre Stimme zu klonen. Von dort aus kann der Benutzer eingeben, was er sagen möchte, und die Hardware von Apple liest es mit seiner synthetisierten Stimme laut vor.

„Diese Sprachbarrierefreiheitsfunktion nutzt maschinelles Lernen auf dem Gerät, um die Informationen der Benutzer privat und sicher zu halten“, fügt Apple hinzu. Die geklonte Stimme verbleibt also auf dem Telefon des Benutzers und nirgendwo sonst, sodass andere nicht darauf zugreifen können.

Die Funktion scheint der Voice-Cloning-Funktion von Samsung zu ähneln, die auf bestimmten Galaxy-Handys in Korea eingeführt wurde. Aber im Fall von Samsung setzt das Unternehmen die Voice-Cloning-Technologie für Verbraucher ein, wenn sie sich in einer lauten Umgebung aufhalten oder schweigen müssen. Apple hingegen hat Personal Voice als Barrierefreiheitsfunktion entwickelt.

Von unseren Redakteuren empfohlen

Für Menschen, die nicht sprechen können, hat Apple eine Funktion namens Live Speech entwickelt. „Benutzer können eingeben, was sie sagen möchten, damit es bei Telefon- und FaceTime-Anrufen sowie bei persönlichen Gesprächen laut gesprochen wird“, sagt Apple.

Live-Rede

Live-Rede (Quelle: Apple)

Das Unternehmen wird voraussichtlich die Barrierefreiheitsfunktionen in iOS 17 veröffentlichen, das voraussichtlich Anfang Juni auf der WWDC angekündigt und im September eingeführt wird. Zu einer weiteren Verbesserung gehört eine überarbeitete iPhone/iPad-Schnittstelle namens „Assistive Access“, die für Benutzer mit kognitiven Behinderungen konzipiert ist.

„Die Funktion bietet eine eindeutige Benutzeroberfläche mit kontrastreichen Schaltflächen und großen Textbeschriftungen sowie Tools, die vertrauenswürdigen Unterstützern dabei helfen, das Erlebnis auf die von ihnen unterstützte Person anzupassen“, sagt Apple.

Assistive Access-Schnittstelle

Assistive Access-Schnittstelle (Quelle: Apple)

Wöchentlicher Apple-Brief<\/strong> für die neuesten Nachrichten, Rezensionen, Tipps und mehr, die direkt in Ihren Posteingang geliefert werden Z“, „last_published_at“: „2021-09-30T21:09:53.000000Z“, „created_at“:null, „updated_at“: „2021-09-30T21:09:59.000000Z“)“ x-show=” showEmailSignUp()” class=”rounded bg-gray-lightest text-center md:px-32 md:py-8 p-4 mt-8 container-xs”>

Apple-Fan?

Melden Sie sich für unsere an Wöchentlicher Apple-Brief um die neuesten Nachrichten, Rezensionen, Tipps und mehr direkt in Ihrem Posteingang zu erhalten.

Dieser Newsletter kann Werbung, Angebote oder Affiliate-Links enthalten. Wenn Sie einen Newsletter abonnieren, erklären Sie sich damit einverstanden Nutzungsbedingungen Und Datenschutz-Bestimmungen. Sie können den Newsletter jederzeit abbestellen.



source-106

Leave a Reply