Wissenschaftler nutzen KI, um Pink Floyd mithilfe der Gehirnaktivität von Operationspatienten zu rekonstruieren


Wissenschaftlern ist es gelungen, Pink Floyds „Another Brick in the Wall Teil 1“ zu rekonstruieren, indem sie die Gehirnaktivität von Patienten entschlüsselten, die das Lied hörten, während sie auf eine Gehirnoperation warteten. Man hofft, dass die Forschung eines Tages dazu beitragen wird, Menschen mit Lähmungen und Entwicklungs- oder neurologischen Störungen eine ausdrucksstärkere Stimme zu verleihen.

Die Daten Die in der Studie verwendeten Daten wurden in den Jahren 2008 und 2015 erfasst durch eine Sammlung von 2.379 Elektroden, die direkt an den Gehirnen von 29 Personen befestigt wurden, die im Albany Medical Center in New York auf eine Epilepsieoperation warteten. Während dieser Zeit hörten die Patienten passiv Pink Floyds Klassiker „Another Brick in the Wall, Teil 1“ an, in der Hoffnung, dass die Daten den Forschern helfen würden, besser zu verstehen, wie das Gehirn Musik wahrnimmt.

In einem neuen Artikel, der in der Zeitschrift veröffentlicht wurde PLOS-Biologie, enthüllten Wissenschaftler, dass es ihnen gelungen ist, die elektrische Aktivität des auditorischen Kortex zu entschlüsseln, um eine erkennbare Version von Pink Floyds Lied zu rekonstruieren. Die rekonstruierte Version des Liedes, die aus Elektrodenmessungen dekodiert und mithilfe eines KI-Programms in ein erkennbares Musikstück neu kodiert wurde, kann hier nachgehört werden.

„Die Dekodierung aus dem auditorischen Kortex, der näher an der Akustik der Geräusche liegt, im Gegensatz zum motorischen Kortex, der näher an den Bewegungen ist, die zur Erzeugung der Akustik der Sprache ausgeführt werden, ist vielversprechend“, erklärte Postdoktorand Ludovic Bellier von am Universität von Kalifornien, Berkeley, der einer der Autoren der neuen Studie war. „Es wird dem Entschlüsselten ein wenig Farbe verleihen.“

Ein völlig neues Feld für Gehirn-Maschine-Schnittstellen

Die Forscher hoffen, dass ihre Arbeit eines Tages dazu beitragen wird, ein Gehirn-zu-Sprache-System zu schaffen, das gelähmten Menschen hilft, mit einer Stimme zu kommunizieren, die reich an musikalischen Elementen wie Betonung und Intonation ist und dabei hilft, Bedeutungen zu vermitteln, die über den Rahmen roboterhaft übermittelter Wörter hinausgehen .

„Während sich das gesamte Feld der Gehirn-Maschine-Schnittstellen weiterentwickelt, ergibt sich daraus die Möglichkeit, künftigen Gehirnimplantaten für Menschen Musikalität zu verleihen, die dies benötigen, z. B. für jemanden, der an ALS oder einer anderen behindernden neurologischen Störung oder Entwicklungsstörung leidet, die die Sprachausgabe beeinträchtigt“, erklärt Studienkoordinator. Autor Robert Knight, Professor für Psychologie an der University of California, Berkeley.

„Es gibt Ihnen die Möglichkeit, nicht nur den sprachlichen Inhalt, sondern auch einen Teil des prosodischen Inhalts der Sprache und einen Teil des Affekts zu entschlüsseln. Ich denke, das ist es, womit wir wirklich begonnen haben, den Code zu knacken.“

Knight hofft, dass künftige Fortschritte bei Sensoren zur Gehirnaufzeichnung es einem solchen System ermöglichen werden, schnell elektrische Signale von der Außenseite des Schädels zu lesen, anstatt wie derzeit durch invasive Operationen direkt auf der Oberfläche des Gehirns angebrachte Elektroden zu verwenden.

Die Forscher konnten außerdem bestätigen, dass die rechte Hemisphäre des menschlichen Gehirns stärker an der Wahrnehmung von Musik beteiligt ist als die linke Gehirnhälfte, und gleichzeitig Regionen identifizieren, die sich mit der Erkennung musikalischer Rhythmen befassen.

Anthony ist ein freiberuflicher Autor, der für IGN über Wissenschafts- und Videospielnachrichten berichtet. Er verfügt über mehr als acht Jahre Erfahrung in der Berichterstattung über bahnbrechende Entwicklungen in verschiedenen wissenschaftlichen Bereichen und hat absolut keine Zeit für Ihre Spielereien. Folgen Sie ihm auf Twitter @BeardConGamer



source-81

Leave a Reply