Cientistas descobrem como o cérebro entende a linguagem

Imagem via Unsplash

doi.org/10.1038/s41562-025-02105-9
Credibilidade: 989
#Cérebro 

Cientistas usaram inteligência artificial (IA) para estudar como o cérebro humano processa a linguagem durante conversas do dia a dia

Eles analisaram 100 horas de falas reais e a atividade cerebral de pessoas enquanto conversavam. O resultado mostra que a IA pode prever o que acontece no cérebro e revela como entendemos a fala, mesmo sem ensinar à máquina as regras da língua.

O que foi feito no estudo:

Os pesquisadores usaram um modelo de IA chamado Whisper, que transforma áudio em texto. Ele foi treinado com muitas horas de gravações de conversas e seus textos correspondentes. Depois, testaram se ele conseguia prever o texto de novos áudios que nunca tinha ouvido. O mais interessante é que o Whisper não tinha regras de linguagem programadas, como sons ou tipos de palavras (substantivos, verbos etc.). Mesmo assim, ao ser treinado, ele “aprendeu” essas estruturas sozinho.

O estudo envolveu quatro pessoas com epilepsia que já estavam no hospital para cirurgias. Com permissão, os cientistas gravaram todas as conversas delas durante dias e colocaram eletrodos no cérebro para medir a atividade enquanto falavam ou ouviam. No total, foram mais de 100 horas de gravações e de 104 a 255 eletrodos por pessoa.

O que descobriram sobre o cérebro:

Os pesquisadores viram que diferentes partes do cérebro trabalham juntas quando falamos ou entendemos algo. Por exemplo:

Uma região chamada giro temporal superior, que ajuda a ouvir sons, ficava mais ativa ao processar áudios.

Outra, o giro frontal inferior, se destacava ao entender o significado das palavras.

Eles também notaram que essas áreas eram ativadas em sequência: primeiro a parte que ouve, depois a que interpreta. Mas também viram que várias regiões do cérebro colaboravam, mesmo as que não são especialistas em uma tarefa específica. Isso sugere que o cérebro funciona de forma mais integrada do que se pensava antes.

Como a IA ajuda a entender isso:

Os cientistas usaram 80% das gravações para treinar o Whisper e os 20% restantes para testar se ele conseguia prever o texto só pelo áudio. Depois, compararam o que o modelo “via” nos áudios com a atividade cerebral registrada pelos eletrodos. O resultado foi impressionante: o Whisper previu a atividade cerebral com mais precisão do que outros modelos que já tinham regras de linguagem programadas.

Mesmo sem ensinar o que é um som ou uma palavra, o modelo identificou essas estruturas sozinho. Isso mostra que ele funciona de um jeito parecido com o cérebro humano ao aprender linguagem.

Por que isso é importante:

Esse estudo, publicado em março na revista Nature Human Behaviour, ajuda a entender melhor como o cérebro processa a linguagem. Ele também pode melhorar tecnologias no futuro, como aparelhos que reconhecem fala ou ajudam pessoas com dificuldades para se comunicar.

Além disso, comparar a IA com o cérebro abre portas para novas descobertas. “É como se a gente pudesse usar a IA para entender melhor como pensamos”, disse Ariel Goldstein, o pesquisador principal da Universidade Hebraica de Jerusalém. Mas outros especialistas alertam que ainda é cedo para dizer se a IA e o cérebro realmente funcionam do mesmo jeito. Mais estudos são necessários.

Essa pesquisa é um passo importante para unir tecnologia e ciência, ajudando a desvendar como nossa mente lida com algo tão natural quanto conversar.


Publicado em 21/03/2025 10h14


English version


Texto adaptado por IA (ChatGPT / Gemini) do original em inglês. Imagens de bibliotecas públicas de imagens ou créditos na legenda. Informações sobre DOI, autor e instituição encontram-se no corpo do artigo.


Estudo original:


Geoprocessamento
Sistemas para drones
HPC
Sistemas ERP e CRM
Sistemas mobile
IA