Gedanken lesen: Dieses KI-System kann Gedanken in Text übersetzen


Das KI-System kann die Gedanken der Menschen in Text übersetzen, indem sie ihre Gehirne scannen, während sie sich eine Geschichte anhören – oder sich sogar vorstellen, eine Geschichte zu erzählen.

Künstliche Intelligenz hat in den letzten Monaten Millionen von Menschen mit ihrer Fähigkeit schockiert und inspiriert, wie ein Mensch zu schreiben, atemberaubende Bilder und Videos zu erstellen und sogar Songs zu produzieren, die die Musikindustrie aufrütteln.

Jetzt haben Forscher eine weitere potenzielle Anwendung entdeckt, die enorme Auswirkungen haben könnte – KI, die im Wesentlichen Gedanken lesen kann.

Sie haben an einem neuen KI-System gearbeitet, das die Gehirnaktivität einer Person in einen kontinuierlichen Textstrom übersetzen kann.

Das als semantischer Decoder bezeichnete System misst die Gehirnaktivität mit einem fMRI-Scanner (funktionelle Magnetresonanztomographie) und kann Text allein aus der Gehirnaktivität generieren.

Die Forscher von der University of Texas in Austin, die hinter der Arbeit stehen, sagen, dass die KI eines Tages Menschen helfen könnte, die geistig bei Bewusstsein sind, aber nicht in der Lage sind, körperlich zu sprechen, wie zum Beispiel Menschen, die schwere Schlaganfälle erlitten haben.

„Für eine nicht-invasive Methode ist dies ein echter Fortschritt im Vergleich zu dem, was zuvor gemacht wurde, was typischerweise aus einzelnen Wörtern oder kurzen Sätzen besteht“, sagte Alex Huth, Assistenzprofessor für Neurowissenschaften und Informatik an der UT Austin und einer der Autoren des Papiers.

“Wir bekommen das Modell, um kontinuierliche Sprache für längere Zeiträume mit komplizierten Ideen zu dekodieren”.

Es sind andere Sprachdecodierungssysteme in der Entwicklung, aber diese erfordern, dass Probanden chirurgische Implantate haben, die als invasive Systeme eingestuft werden.

Der semantische Decoder ist ein nicht-invasives System, da keine Implantate erforderlich sind. Im Gegensatz zu anderen Decodern sind die Probanden auch nicht auf die Verwendung von Wörtern aus einer vorgegebenen Liste beschränkt. Der Decoder wird ausgiebig mit fMRI-Scans trainiert, während die Testperson stundenlang Podcasts hört. Danach hört die Versuchsperson eine neue Geschichte oder stellt sich vor, eine Geschichte zu erzählen, und ihre Gehirnaktivität generiert den entsprechenden Text.

Entschlüsselung des „Wesens“ des Gedankens

Die Forscher erklärten, dass die Ergebnisse keine Wort-für-Wort-Transkription dessen sind, was die Versuchsperson hört oder in ihrem Kopf sagt, sondern der Decoder „den Kern“ dessen erfasst, was gedacht wird. Etwa die Hälfte der Zeit ist die Maschine in der Lage, Texte zu produzieren, die der beabsichtigten Bedeutung der ursprünglichen Wörter sehr ähnlich – und manchmal genau – entsprechen.

In einem Experiment hörte beispielsweise ein Zuhörer einen Sprecher sagen: „Ich habe noch keinen Führerschein“, und die Maschine übersetzte ihre Gedanken in: „Sie hat noch nicht einmal angefangen, Autofahren zu lernen“.

Während des Tests baten die Forscher die Probanden auch, während des Scannens kurze stumme Videos anzusehen, und der Decoder war in der Lage, ihre Gehirnaktivität zu nutzen, um einige Ereignisse aus den Videos genau zu beschreiben.

Die Forscher glauben, dass der Prozess auf tragbarere Bildgebungssysteme des Gehirns wie die funktionelle Nahinfrarotspektroskopie (fNIRS) übertragen werden könnte. Aufgrund seiner Abhängigkeit von fMRI-Geräten ist es derzeit für eine breitere Verwendung nicht praktikabel.

„fNIRS misst, wo zu verschiedenen Zeitpunkten mehr oder weniger Blut im Gehirn fließt, was, wie sich herausstellt, genau die gleiche Art von Signal ist, die fMRI misst“, sagte Huth. „Unsere genaue Art des Ansatzes sollte sich also auf fNIRS übertragen lassen“, obwohl die Auflösung mit fNIRS geringer wäre, bemerkte er.

Die Forscher gingen auf mögliche Bedenken hinsichtlich der Verwendung dieser Art von Technologie ein, wobei der Hauptautor Jerry Tang, ein Doktorand der Informatik, sagte: „Wir nehmen die Bedenken, dass sie für schlechte Zwecke verwendet werden könnte, sehr ernst und haben daran gearbeitet, dies zu vermeiden “.

Sie bestehen darauf, dass das System nicht gegen ihren Willen angewendet werden kann, da es einem bereitwilligen Teilnehmer ausgiebig beigebracht werden muss. „Eine Person muss bis zu 15 Stunden in einem MRT-Scanner liegen, vollkommen ruhig sein und den Geschichten, die sie hört, aufmerksam zuhören, bevor das bei ihr wirklich gut funktioniert“, erklärte Huth.

Der Erkenntnisse veröffentlicht wurden in der Zeitschrift Natur.

Entschlüsselung von Bildern aus dem Kopf

Die Übersetzung von Gehirnaktivität in geschriebene Wörter ist nicht die einzige Gedankenleseforschung, an der künstliche Intelligenz getestet wird.

Andere Kürzlich durchgeführte Studieveröffentlicht im März, enthüllte, wie KI Gehirnscans lesen kann, um Bilder nachzubilden, die eine Person gesehen hat.

Die Forscher der Universität Osaka in Japan verwendeten Stable Diffusion – einen Text-zu-Bild-Generator, der Midjourney und DALL-E 2 von OpenAI ähnelt.

Dieses System war in der Lage, visuelle Erfahrungen aus der menschlichen Gehirnaktivität zu rekonstruieren, wiederum dank fMRI-Gehirnscans, die durchgeführt wurden, während eine Testperson einen visuellen Hinweis betrachtete.

source-121

Leave a Reply