Der KI-Übersetzer von Meta kann ungeschriebene Sprachen interpretieren


Fast die Hälfte der rund 7.000 bekannten Sprachen der Welt, vier von zehn, existieren ohne eine begleitende schriftliche Komponente. Diese ungeschriebenen Sprachen stellen ein einzigartiges Problem für moderne Übersetzungssysteme für maschinelles Lernen dar, da sie normalerweise verbale Sprache in geschriebene Wörter umwandeln müssen, bevor sie in die neue Sprache übersetzen und den Text wieder in Sprache umwandeln, aber eines, das Meta Berichten zufolge mit seinem neuesten Open angegangen ist – AI-Fortschritt in der Quellsprache.

Als Teil des Universal Speech Translator (UST)-Programms von Meta, das daran arbeitet, eine Sprache-zu-Sprache-Übersetzung in Echtzeit zu entwickeln leichter interagieren können (lesen Sie: ). Als Teil dieses Projekts untersuchten Meta-Forscher Hokkien, eine ungeschriebene Sprache, die in der gesamten asiatischen Diaspora gesprochen wird und eine von Taiwans Amtssprachen ist.

Übersetzungssysteme für maschinelles Lernen erfordern in der Regel umfangreiche beschriftbare Beispiele der Sprache, sowohl geschrieben als auch gesprochen, um darauf zu trainieren – genau das, was ungeschriebene Sprachen wie Hokkien nicht haben. Um dies zu umgehen, „haben wir die Sprache-zu-Einheit-Übersetzung (S2UT) verwendet, um Eingabesprache direkt in eine Folge von akustischen Einheiten umzuwandeln, auf dem Weg, der zuvor von Meta entwickelt wurde“, erklärte CEO Mark Zuckerberg in einem Blogbeitrag am Mittwoch. „Dann haben wir aus den Einheiten Wellenformen generiert. Darüber hinaus wurde UnitY für einen Zwei-Pass-Decodierungsmechanismus übernommen, bei dem der First-Pass-Decoder Text in einer verwandten Sprache (Mandarin) generiert und der Second-Pass-Decoder Einheiten erstellt.“

„Wir haben Mandarin als Zwischensprache genutzt, um Pseudo-Labels zu erstellen, bei denen wir zuerst Sprache aus dem Englischen (oder Hokkien) in Mandarin-Text übersetzten und dann nach Hokkien (oder Englisch) übersetzten und zu den Trainingsdaten hinzufügten“, fuhr er fort. Derzeit erlaubt das System jemandem, der Hokkien spricht, sich mit jemandem zu unterhalten, der Englisch spricht, wenn auch gestelzt. Das Modell kann jeweils nur einen ganzen Satz übersetzen, aber Zuckerberg ist zuversichtlich, dass die Technik schließlich auf mehr Sprachen angewendet werden kann und sich bis zu dem Punkt verbessern wird, an dem Echtzeit-Übersetzungen angeboten werden.

Zusätzlich zu den Modellen und Trainingsdaten, die Meta bereits aus diesem Projekt als Open-Source bereitstellt, veröffentlicht das Unternehmen auch ein einzigartiges Speech-to-Speech-Benchmarking-System für Übersetzungen, das auf einem Hokkien-Sprachkorpus namens Taiwanese Across Taiwan basiert , sowie „die Sprachmatrix, ein großer Korpus von Sprache-zu-Sprache-Übersetzungen, die mit Metas innovativer Data-Mining-Technik namens LASER abgebaut wurden“, kündigte Zuckerberg an. Dieses System wird Forscher in die Lage versetzen, eigene Speech-to-Speech-Übersetzungssysteme (S2ST) zu erstellen.

Alle von Engadget empfohlenen Produkte werden von unserem Redaktionsteam unabhängig von unserer Muttergesellschaft ausgewählt. Einige unserer Geschichten enthalten Affiliate-Links. Wenn Sie etwas über einen dieser Links kaufen, erhalten wir möglicherweise eine Affiliate-Provision. Alle Preise sind zum Zeitpunkt der Veröffentlichung korrekt.

source-115

Leave a Reply