Ich sehe was, das du gleich sagen wirst

Tübinger Forschende können Hirnsignale über Inhalt und Form eines Sprachlautes auslesen – und zwar mehrere Sekunden, bevor er geäußert wird

Mehrere Sekunden, bevor wir einen Laut äußern, können aus unserem Gehirn Signale über Inhalt und Form der Äußerung ausgelesen werden. Das berichtet ein Forschungsteam um Professor Dr. Markus Siegel vom Hertie-Institut für klinische Hirnforschung, der Universität Tübingen und dem Universitätsklinikum Tübingen. Das Team hat in einer aktuellen Studie untersucht, ob der Inhalt und die Produktion von Sprache im Gehirn getrennt verarbeitet werden. Mithilfe moderner Bildgebung in Form der Magnetoenzephalographie (MEG) gelang es den Forschenden, in der Hirnaktivität den Inhalt unabhängig von der motorischen Produktion zu identifizieren – und somit auch vorherzusagen, welchen von zwei feststehenden Lauten die Probanden gleich äußern würden. Die Erkenntnisse haben sie im Fachjournal PNAS veröffentlicht.

Wir alle kennen sie: Die innere Stimme, die uns stumm durch den Alltag begleitet. Sie deutet darauf hin, dass diese Art der Gedanken getrennt vom motorischen Vorgang des Sprechens entstehen. Doch wie verarbeitet unser Gehirn Sprachinhalte und -produktion? Das war die Frage, mit der sich das Tübinger Forschungsteam beschäftigte.

„Wir haben die Hirnaktivität bei Probanden aufgezeichnet, während sie eine einfache Vokalisierungsaufgabe ausführten“, so Studienleiter Siegel. Diese mussten sich einen von zwei Vokalen vorstellen oder laut äußern. Welche Aufgabe sie in dem jeweiligen experimentellen Durchgang ausführen sollten, wurde ihnen auf einem Bildschirm gezeigt.

Um die Hirnaktivität zu messen, nutzen die Forscher Magnetenzephalographie (MEG). MEG ermöglicht es, die Gehirnaktivität des Menschen nicht-invasiv zu messen, indem die durch die Gehirnaktivität generierten Magnetfelder außerhalb des Kopfes aufgezeichnet werden. Da diese Magnetfelder um ein Vielfaches kleiner als das Erdmagnetfeld oder die durch elektrische Geräte verursachten Magnetfelder sind, erfolgte die Messung am Tübinger MEG-Zentrum mittels hoch-sensitiver Magnetfeldsensoren in einem speziellen magnetisch abgeschirmten Raum. Anschließend unterzogen die Forschenden die Daten einer fortgeschrittenen statistischen Musteranalyse.

Mit Erfolg: „Es gelang uns, in den Gehirnsignalen den Vokal zu identifizieren, den die Probanden vokalisieren sollten – und zwar bereits ein paar Sekunden vor der Ausführung,“ sagt die Erstautorin der Studie, Vera Voigtländer. „Dies war unabhängig davon, ob sie ihn später laut äußerten oder ihn sich lediglich vorstellten.“ Das deute darauf hin, dass der Sprachinhalt abstrakt im Gehirn repräsentiert werde. Auf diese Weise könne er über verschiedene Produktionsformen generalisiert werden – wie etwa der stummen inneren Stimme oder lauten verbalen Äußerungen.

Der Befürchtung, dass sie mit ihrer Methode Gedanken lesen können, erteilen die Wissenschaftlerinnen und Wissenschaftlern eine Absage. „Die Messungen sind sehr aufwändig. Das MEG benötigt viel Platz, die Signale sind sehr schwach, und die untersuchten Laute sind keine komplexen Gedanken“, erklärt Siegel. Die Ergebnisse der Studie liefern jedoch grundlegende Erkenntnisse über die neuronalen Prozesse, die der Produktion von Sprache zu Grunde liegen – einer wesentlichen Fähigkeit von uns Menschen, die bei verschiedenen Erkrankungen gestört sein kann. „So könnten die Ergebnisse der Studie langfristig dazu beitragen, Sprachprothesen zu entwickeln und effizienter zu machen“, erläutert Mitautor Professor Dr. Steffen Hage von der HNO-Klinik des Universitätsklinikums Tübingen.

„Langfristig wollen wir verschiedene Bausteine von Sprache untersuchen. Aktuell haben wir nur einzelne Vokale analysiert“, so Siegel. „Im nächsten Schritt wollen wir uns anschauen, wie das Gehirn komplexere Lautäußerungen verarbeitet.“

Originalpublikation:

Voigtlaender V.A. et al (2023): Neural representations of the content and production of human vocalization. PNAS, 120(23), e2219310120
https://doi.org/10.1101/2022.09.30.510259