Gehirnwellen verraten, wie wir Wörter in der Sprache wahrnehmen

20
Gehirnwellen verraten, wie wir Wörter in der Sprache wahrnehmen

Jüngste neurowissenschaftliche Forschungen haben eine wichtige neuronale Signatur der Worterkennung identifiziert: einen schnellen Abfall der Gehirnwellen mit hohem Gamma-Wert, der etwa 100 Millisekunden nach einer Wortgrenze auftritt. Diese Entdeckung gibt Aufschluss darüber, wie das Gehirn kontinuierliche Schallströme in diskrete Bedeutungseinheiten umwandelt, ein Prozess, der lange Zeit ein Rätsel war, da es in der natürlichen Sprache keine klare akustische Trennung zwischen Wörtern gibt.

Die Illusion von Wortgrenzen

Die menschliche Sprache ist nicht sauber in einzelne Wörter verpackt. Pausen innerhalb von Wörtern sind genauso häufig wie Pausen zwischen ihnen, insbesondere bei schnellen Gesprächen oder bei unbekannten Sprachen, bei denen Geräusche dazu neigen, miteinander zu verschmelzen. Das bedeutet, dass unsere Wahrnehmung unterschiedlicher Wörter nicht ausschließlich von den physikalischen Eigenschaften des Klangs bestimmt wird, sondern vielmehr von internen kognitiven Prozessen.

Der Neurologe Edward Chang und sein Team von der University of California in San Francisco haben durch die Untersuchung schneller Gehirnwellen (High-Gamma) in Sprachwahrnehmungsbereichen ein direktes neuronales Korrelat von Wortgrenzen identifiziert. Ihre in Neuron veröffentlichten Ergebnisse zeigen, dass diese Wellen unmittelbar nach jedem gesprochenen Wort kontinuierlich schwächer werden.

„Meines Wissens ist dies das erste Mal, dass wir eine direkte neuronale Gehirnkorrelation von Wörtern haben“, erklärt Chang. „Das ist eine große Sache.“

Neuronale Signaturen in allen Sprachen

Das Forschungsteam untersuchte dieses Phänomen in mehreren Sprachen weiter. Eine Studie in Nature ergab, dass englische, spanische und mandarinsprachige Muttersprachler beim Hören ihrer Muttersprachen alle den gleichen hohen Gammaabfall aufweisen. Diese Reaktion ist jedoch schwächer und weniger konsistent, wenn unbekannte Sprache verarbeitet wird. Zweisprachige Personen zeigen in beiden Sprachen muttersprachliche Muster, und Englischlernende zeigen mit zunehmender Sprachkompetenz stärkere neuronale Reaktionen.

Dies deutet darauf hin, dass das Gehirn nicht einfach auf akustische Muster reagiert, sondern die Sprache aktiv auf der Grundlage erlernter sprachlicher Strukturen organisiert. Je vertrauter eine Sprache ist, desto klarer wird das neuronale Signal für Wortgrenzen.

Das Zusammenspiel von Klang und Bedeutung

Obwohl diese Ergebnisse einen großen Durchbruch darstellen, bleiben Fragen offen, wie sich das Verständnis auf die Worterkennung auswirkt. Einige Forscher gehen davon aus, dass das Gehirn Muster unabhängig vom Verständnis erkennt, während andere vermuten, dass die Bedeutung eine entscheidende Rolle spielt – ähnlich wie Untertitel die Klarheit bei gedämpftem Ton verbessern.

Changs Arbeit stellt die traditionelle Sichtweise der Sprachverarbeitung in Frage, die von getrennten Gehirnregionen für Klang, Wörter und Bedeutung ausgeht. Stattdessen deuten seine Untersuchungen darauf hin, dass alle diese Strukturebenen in denselben Bereichen verarbeitet werden, wodurch die Grenzen zwischen akustischer und kognitiver Analyse verwischen.

Im Wesentlichen hört das Gehirn nicht nur Geräusche; Es konstruiert aktiv Wörter aus einem kontinuierlichen Audiofluss, indem es erlernte Muster und neuronales Timing nutzt. Weitere Studien mit künstlichen Sprachen werden entscheidend sein, um das komplexe Zusammenspiel zwischen Klangverarbeitung, Bedeutung und den Worterkennungsmechanismen des Gehirns vollständig zu verstehen.