Ondas cerebrais revelam como percebemos as palavras na fala

18

Pesquisas recentes em neurociência identificaram uma assinatura neural chave no reconhecimento de palavras: uma queda rápida nas ondas cerebrais gama alta que ocorre aproximadamente 100 milissegundos após o limite de uma palavra. Esta descoberta esclarece como o cérebro transforma fluxos contínuos de som em unidades discretas de significado, um processo que há muito tempo é um mistério, dada a falta de separação acústica clara entre as palavras na fala natural.

A ilusão dos limites das palavras

A fala humana não vem bem embalada em palavras individuais. As pausas nas palavras são tão frequentes quanto as entre elas, especialmente em conversas rápidas ou em idiomas desconhecidos, onde os sons tendem a se misturar. Isto significa que a nossa percepção de palavras distintas não é ditada apenas pelas propriedades físicas do som, mas sim por processos cognitivos internos.

O neurologista Edward Chang e sua equipe da Universidade da Califórnia, em São Francisco, identificaram um correlato neural direto dos limites das palavras ao estudar ondas cerebrais rápidas (alta gama) em áreas de percepção da fala. Suas descobertas, publicadas no Neuron, mostram que essas ondas enfraquecem consistentemente imediatamente após cada palavra ser falada.

“Que eu saiba, esta é a primeira vez que temos um correlato neural direto de palavras no cérebro”, explica Chang. “Isso é um grande negócio.”

Assinaturas Neurais em Vários Idiomas

A equipe de pesquisa investigou ainda mais esse fenômeno em vários idiomas. Um estudo na Nature revelou que falantes nativos de inglês, espanhol e mandarim exibem a mesma queda de gama alta ao ouvir suas línguas maternas. No entanto, esta resposta é mais fraca e menos consistente quando se processa uma fala desconhecida. Indivíduos bilíngues demonstram padrões nativos em ambas as línguas, e os alunos de inglês apresentam respostas neurais mais fortes à medida que sua proficiência aumenta.

Isto sugere que o cérebro não reage simplesmente a padrões acústicos, mas organiza ativamente a fala com base em estruturas linguísticas aprendidas. Quanto mais familiar for um idioma, mais claro se tornará o sinal neural para os limites das palavras.

A interação de som e significado

Embora essas descobertas ofereçam um grande avanço, permanecem questões sobre como a compreensão afeta o reconhecimento de palavras. Alguns pesquisadores sugerem que o cérebro pode detectar padrões independentemente da compreensão, enquanto outros propõem que o significado desempenha um papel crucial – semelhante à forma como as legendas melhoram a clareza em áudio abafado.

O trabalho de Chang desafia a visão tradicional do processamento da linguagem, que pressupunha regiões cerebrais separadas para sons, palavras e significado. Em vez disso, sua pesquisa indica que todos esses níveis de estrutura são processados ​​nas mesmas áreas, confundindo os limites entre a análise acústica e a cognitiva.

**Em essência, o cérebro não ouve apenas sons; ele constrói ativamente palavras a partir de um fluxo contínuo de áudio, aproveitando padrões aprendidos e tempo neural. ** Estudos adicionais usando linguagens artificiais serão cruciais para compreender completamente a complexa interação entre o processamento de som, o significado e os mecanismos de reconhecimento de palavras do cérebro.

попередня статтяOs ursos não hibernam: o que eles realmente fazem no inverno