
doi.org/10.1038/s41562-025-02105-9
Credibilidade: 989
#Cérebro
Cientistas usaram inteligência artificial (IA) para estudar como o cérebro humano processa a linguagem durante conversas do dia a dia
Eles analisaram 100 horas de falas reais e a atividade cerebral de pessoas enquanto conversavam. O resultado mostra que a IA pode prever o que acontece no cérebro e revela como entendemos a fala, mesmo sem ensinar à máquina as regras da língua.
O que foi feito no estudo:
Os pesquisadores usaram um modelo de IA chamado Whisper, que transforma áudio em texto. Ele foi treinado com muitas horas de gravações de conversas e seus textos correspondentes. Depois, testaram se ele conseguia prever o texto de novos áudios que nunca tinha ouvido. O mais interessante é que o Whisper não tinha regras de linguagem programadas, como sons ou tipos de palavras (substantivos, verbos etc.). Mesmo assim, ao ser treinado, ele “aprendeu” essas estruturas sozinho.
O estudo envolveu quatro pessoas com epilepsia que já estavam no hospital para cirurgias. Com permissão, os cientistas gravaram todas as conversas delas durante dias e colocaram eletrodos no cérebro para medir a atividade enquanto falavam ou ouviam. No total, foram mais de 100 horas de gravações e de 104 a 255 eletrodos por pessoa.
O que descobriram sobre o cérebro:
Os pesquisadores viram que diferentes partes do cérebro trabalham juntas quando falamos ou entendemos algo. Por exemplo:
Uma região chamada giro temporal superior, que ajuda a ouvir sons, ficava mais ativa ao processar áudios.
Outra, o giro frontal inferior, se destacava ao entender o significado das palavras.
Eles também notaram que essas áreas eram ativadas em sequência: primeiro a parte que ouve, depois a que interpreta. Mas também viram que várias regiões do cérebro colaboravam, mesmo as que não são especialistas em uma tarefa específica. Isso sugere que o cérebro funciona de forma mais integrada do que se pensava antes.
Como a IA ajuda a entender isso:
Os cientistas usaram 80% das gravações para treinar o Whisper e os 20% restantes para testar se ele conseguia prever o texto só pelo áudio. Depois, compararam o que o modelo “via” nos áudios com a atividade cerebral registrada pelos eletrodos. O resultado foi impressionante: o Whisper previu a atividade cerebral com mais precisão do que outros modelos que já tinham regras de linguagem programadas.
Mesmo sem ensinar o que é um som ou uma palavra, o modelo identificou essas estruturas sozinho. Isso mostra que ele funciona de um jeito parecido com o cérebro humano ao aprender linguagem.
Por que isso é importante:
Esse estudo, publicado em março na revista Nature Human Behaviour, ajuda a entender melhor como o cérebro processa a linguagem. Ele também pode melhorar tecnologias no futuro, como aparelhos que reconhecem fala ou ajudam pessoas com dificuldades para se comunicar.
Além disso, comparar a IA com o cérebro abre portas para novas descobertas. “É como se a gente pudesse usar a IA para entender melhor como pensamos”, disse Ariel Goldstein, o pesquisador principal da Universidade Hebraica de Jerusalém. Mas outros especialistas alertam que ainda é cedo para dizer se a IA e o cérebro realmente funcionam do mesmo jeito. Mais estudos são necessários.
Essa pesquisa é um passo importante para unir tecnologia e ciência, ajudando a desvendar como nossa mente lida com algo tão natural quanto conversar.
Publicado em 21/03/2025 10h14
Texto adaptado por IA (ChatGPT / Gemini) do original em inglês. Imagens de bibliotecas públicas de imagens ou créditos na legenda. Informações sobre DOI, autor e instituição encontram-se no corpo do artigo.
Estudo original:
Geoprocessamento Sistemas para drones HPC |
![]() | Sistemas ERP e CRM Sistemas mobile IA |