Des recherches récentes en neurosciences ont identifié une signature neuronale clé de la reconnaissance des mots : une baisse rapide des ondes cérébrales à gamma élevé se produisant environ 100 millisecondes après la limite d’un mot. Cette découverte met en lumière la façon dont le cerveau transforme des flux sonores continus en unités de signification discrètes, un processus qui a longtemps été un mystère étant donné l’absence de séparation acoustique claire entre les mots dans le discours naturel.
L’illusion des limites des mots
Le discours humain n’est pas clairement conditionné en mots individuels. Les pauses dans les mots sont tout aussi fréquentes que celles entre eux, en particulier dans les conversations rapides ou dans les langues inconnues où les sons ont tendance à se mélanger. Cela signifie que notre perception de mots distincts n’est pas uniquement dictée par les propriétés physiques du son, mais plutôt par des processus cognitifs internes.
Le neurologue Edward Chang et son équipe de l’Université de Californie à San Francisco ont identifié un corrélat neuronal direct des limites des mots en étudiant les ondes cérébrales rapides (gamma élevé) dans les zones de perception de la parole. Leurs découvertes, publiées dans Neuron, montrent que ces ondes s’affaiblissent systématiquement immédiatement après que chaque mot soit prononcé.
“À ma connaissance, c’est la première fois que nous avons un corrélat neuronal direct des mots”, explique Chang. “C’est un gros problème.”
Signatures neuronales dans toutes les langues
L’équipe de recherche a étudié plus en détail ce phénomène dans plusieurs langues. Une étude publiée dans Nature a révélé que les locuteurs natifs anglais, espagnols et mandarin présentent tous la même baisse gamma élevée lorsqu’ils écoutent leur langue maternelle. Cependant, cette réponse est plus faible et moins cohérente lors du traitement de paroles inconnues. Les individus bilingues présentent des schémas natifs dans les deux langues, et les apprenants de l’anglais présentent des réponses neuronales plus fortes à mesure que leurs compétences augmentent.
Cela suggère que le cerveau ne réagit pas simplement aux modèles acoustiques, mais organise activement la parole sur la base de structures linguistiques apprises. Plus une langue est familière, plus le signal neuronal indiquant les limites des mots devient clair.
L’interaction du son et du sens
Bien que ces résultats constituent une avancée majeure, des questions demeurent quant à la manière dont la compréhension affecte la reconnaissance des mots. Certains chercheurs suggèrent que le cerveau peut détecter des modèles indépendamment de la compréhension, tandis que d’autres proposent que la signification joue un rôle crucial, de la même manière que les sous-titres améliorent la clarté d’un son étouffé.
Le travail de Chang remet en question la vision traditionnelle du traitement du langage, qui supposait des régions cérébrales distinctes pour le son, les mots et le sens. Au lieu de cela, ses recherches indiquent que tous ces niveaux de structure sont traités dans les mêmes zones, brouillant les frontières entre analyse acoustique et cognitive.
Essentiellement, le cerveau n’entend pas seulement les sons ; il construit activement des mots à partir d’un flux audio continu en tirant parti des modèles appris et du timing neuronal. D’autres études utilisant des langages artificiels seront cruciales pour bien comprendre l’interaction complexe entre le traitement du son, sa signification et les mécanismes de reconnaissance des mots du cerveau.
