Recent neurowetenschappelijk onderzoek heeft een belangrijke neurale signatuur van woordherkenning aan het licht gebracht: een snelle daling van hersengolven met een hoog gammaniveau die ongeveer 100 milliseconden na een woordgrens optreden. Deze ontdekking werpt licht op hoe de hersenen continue geluidsstromen transformeren in afzonderlijke betekeniseenheden, een proces dat lange tijd een mysterie is geweest gezien het gebrek aan duidelijke akoestische scheiding tussen woorden in natuurlijke spraak.
De illusie van woordgrenzen
Menselijke spraak is niet netjes verpakt in individuele woorden. Pauzes binnen woorden komen net zo vaak voor als pauzes ertussen, vooral in snelle gesprekken of in onbekende talen waar geluiden de neiging hebben in elkaar over te lopen. Dit betekent dat onze perceptie van verschillende woorden niet alleen wordt bepaald door de fysieke eigenschappen van geluid, maar eerder door interne cognitieve processen.
Neuroloog Edward Chang en zijn team aan de Universiteit van Californië, San Francisco, hebben een direct neuraal correlaat van woordgrenzen geïdentificeerd door snelle hersengolven (hoog gamma) in spraakwaarnemingsgebieden te bestuderen. Hun bevindingen, gepubliceerd in Neuron, laten zien dat deze golven consequent zwakker worden onmiddellijk nadat elk woord is uitgesproken.
“Voor zover ik weet is dit de eerste keer dat we een direct neuraal hersencorrelatie van woorden hebben”, legt Chang uit. “Dat is een groot probleem.”
Neurale handtekeningen in verschillende talen
Het onderzoeksteam heeft dit fenomeen verder onderzocht in meerdere talen. Uit een onderzoek in Nature is gebleken dat moedertaalsprekers van het Engels, Spaans en Mandarijn allemaal dezelfde hoge gammadaling vertonen als ze naar hun moedertaal luisteren. Deze reactie is echter zwakker en minder consistent bij het verwerken van onbekende spraak. Tweetalige individuen vertonen in beide talen moedertaalachtige patronen, en Engelse leerlingen vertonen sterkere neurale reacties naarmate hun vaardigheid toeneemt.
Dit suggereert dat de hersenen niet simpelweg reageren op akoestische patronen, maar spraak actief organiseren op basis van aangeleerde taalstructuren. Hoe bekender een taal, hoe duidelijker het neurale signaal voor woordgrenzen wordt.
Het samenspel van geluid en betekenis
Hoewel deze bevindingen een grote doorbraak betekenen, blijven er vragen bestaan over de manier waarop begrip de woordherkenning beïnvloedt. Sommige onderzoekers suggereren dat de hersenen patronen kunnen detecteren ongeacht het begrip, terwijl anderen opperen dat betekenis een cruciale rol speelt – vergelijkbaar met hoe ondertitels de helderheid in gedempte audio verbeteren.
Changs werk daagt de traditionele kijk op taalverwerking uit, die uitging van afzonderlijke hersengebieden voor geluid, woorden en betekenis. In plaats daarvan geeft zijn onderzoek aan dat al deze structuurniveaus in dezelfde gebieden worden verwerkt, waardoor de grenzen tussen akoestische en cognitieve analyse vervagen.
In wezen horen de hersenen niet alleen geluiden; het construeert actief woorden uit een continue stroom audio door gebruik te maken van aangeleerde patronen en neurale timing. Verder onderzoek met behulp van kunstmatige talen zal cruciaal zijn om de complexe wisselwerking tussen geluidsverwerking, betekenis en de woordherkenningsmechanismen van de hersenen volledig te begrijpen.
