Recenti ricerche neuroscientifiche hanno individuato una firma neurale chiave del riconoscimento delle parole: un rapido calo delle onde cerebrali ad alta gamma che si verifica circa 100 millisecondi dopo il confine di una parola. Questa scoperta fa luce su come il cervello trasforma i flussi continui di suono in unità discrete di significato, un processo che è stato a lungo un mistero data la mancanza di una chiara separazione acustica tra le parole nel linguaggio naturale.
L’illusione dei confini delle parole
Il linguaggio umano non è ben confezionato in singole parole. Le pause all’interno delle parole sono frequenti quanto quelle tra di esse, soprattutto nelle conversazioni veloci o nelle lingue sconosciute dove i suoni tendono a fondersi insieme. Ciò significa che la nostra percezione di parole distinte non è dettata esclusivamente dalle proprietà fisiche del suono, ma piuttosto da processi cognitivi interni.
Il neurologo Edward Chang e il suo team dell’Università della California, a San Francisco, hanno identificato un correlato neurale diretto dei confini delle parole studiando le onde cerebrali veloci (alto gamma) nelle aree di percezione del parlato. I loro risultati, pubblicati su Neuron, mostrano che queste onde si indeboliscono costantemente immediatamente dopo che ogni parola è stata pronunciata.
“Per quanto ne so, questa è la prima volta che abbiamo un correlato neurale diretto delle parole nel cervello”, spiega Chang. “Questo è un grosso problema.”
Firme neurali attraverso le lingue
Il gruppo di ricerca ha studiato ulteriormente questo fenomeno in più lingue. Uno studio pubblicato su Nature ha rivelato che i madrelingua inglesi, spagnoli e mandarini mostrano tutti lo stesso elevato calo gamma quando ascoltano la loro lingua madre. Tuttavia, questa risposta è più debole e meno coerente quando si elabora un discorso non familiare. Gli individui bilingui dimostrano modelli nativi in entrambe le lingue, e gli studenti di inglese mostrano risposte neurali più forti man mano che la loro competenza aumenta.
Ciò suggerisce che il cervello non reagisce semplicemente ai modelli acustici ma organizza attivamente il discorso sulla base di strutture linguistiche apprese. Più una lingua è familiare, più chiaro diventa il segnale neurale per i confini delle parole.
L’interazione tra suono e significato
Sebbene questi risultati offrano un importante passo avanti, rimangono interrogativi su come la comprensione influisce sul riconoscimento delle parole. Alcuni ricercatori suggeriscono che il cervello possa rilevare schemi indipendentemente dalla comprensione, mentre altri suggeriscono che il significato giochi un ruolo cruciale, in modo simile a come i sottotitoli migliorano la chiarezza nell’audio ovattato.
Il lavoro di Chang sfida la visione tradizionale dell’elaborazione del linguaggio, che presupponeva regioni cerebrali separate per suono, parole e significato. Invece, la sua ricerca indica che tutti questi livelli di struttura vengono elaborati nelle stesse aree, confondendo i confini tra analisi acustica e cognitiva.
In sostanza, il cervello non sente solo i suoni; costruisce attivamente parole da un flusso continuo di audio sfruttando modelli appresi e tempi neurali. Ulteriori studi che utilizzano linguaggi artificiali saranno cruciali per comprendere appieno la complessa interazione tra l’elaborazione del suono, il significato e i meccanismi di riconoscimento delle parole del cervello.

























