Las ondas cerebrales revelan cómo percibimos las palabras en el habla

13

Investigaciones neurocientíficas recientes han identificado una firma neuronal clave en el reconocimiento de palabras: una caída rápida en las ondas cerebrales gamma alta que ocurre aproximadamente 100 milisegundos después del límite de una palabra. Este descubrimiento arroja luz sobre cómo el cerebro transforma flujos continuos de sonido en unidades discretas de significado, un proceso que ha sido durante mucho tiempo un misterio dada la falta de una separación acústica clara entre las palabras en el habla natural.

La ilusión de los límites de las palabras

El habla humana no viene claramente empaquetada en palabras individuales. Las pausas dentro de las palabras son tan frecuentes como las que hay entre ellas, especialmente en conversaciones rápidas o en idiomas desconocidos donde los sonidos tienden a mezclarse. Esto significa que nuestra percepción de distintas palabras no está dictada únicamente por las propiedades físicas del sonido, sino más bien por procesos cognitivos internos.

El neurólogo Edward Chang y su equipo de la Universidad de California en San Francisco han identificado un correlato neuronal directo de los límites de las palabras mediante el estudio de ondas cerebrales rápidas (gamma alta) en áreas de percepción del habla. Sus hallazgos, publicados en Neuron, muestran que estas ondas se debilitan constantemente inmediatamente después de cada palabra.

“Que yo sepa, esta es la primera vez que tenemos un correlato cerebral neuronal directo de las palabras”, explica Chang. “Eso es un gran problema”.

Firmas neuronales en todos los idiomas

El equipo de investigación investigó más a fondo este fenómeno en varios idiomas. Un estudio en Nature reveló que los hablantes nativos de inglés, español y mandarín exhiben la misma caída alta de gamma cuando escuchan sus lenguas maternas. Sin embargo, esta respuesta es más débil y menos consistente cuando se procesa un habla desconocida. Los individuos bilingües demuestran patrones nativos en ambos idiomas, y los estudiantes de inglés muestran respuestas neuronales más fuertes a medida que aumenta su dominio.

Esto sugiere que el cerebro no reacciona simplemente a patrones acústicos sino que organiza activamente el habla basándose en estructuras lingüísticas aprendidas. Cuanto más familiar es un idioma, más clara se vuelve la señal neuronal para los límites de las palabras.

La interacción del sonido y el significado

Si bien estos hallazgos ofrecen un gran avance, quedan dudas sobre cómo la comprensión afecta el reconocimiento de palabras. Algunos investigadores sugieren que el cerebro puede detectar patrones independientemente de su comprensión, mientras que otros proponen que el significado juega un papel crucial, similar a cómo los subtítulos mejoran la claridad en el audio amortiguado.

El trabajo de Chang desafía la visión tradicional del procesamiento del lenguaje, que suponía regiones cerebrales separadas para el sonido, las palabras y el significado. En cambio, su investigación indica que todos estos niveles de estructura se procesan en las mismas áreas, desdibujando las líneas entre el análisis acústico y cognitivo.

En esencia, el cerebro no sólo escucha sonidos; construye palabras de forma activa a partir de un flujo continuo de audio aprovechando los patrones aprendidos y la sincronización neuronal. Más estudios utilizando lenguajes artificiales serán cruciales para comprender completamente la compleja interacción entre el procesamiento del sonido, el significado y los mecanismos de reconocimiento de palabras del cerebro.

попередня статтяLos osos no hibernan: lo que realmente hacen en invierno