
A organização divulgou recentemente um índice que avaliou seis dos modelos de linguagem mais usados no mundo: ChatGPT (da OpenAI), Gemini (do Google), Grok (da xAI), Llama (da Meta), Claude (da Anthropic) e DeepSeek
Entre agosto e outubro de 2025, a ADL realizou mais de 25 mil interações com esses sistemas para observar como eles lidavam com conteúdos antissemitas, teorias conspiratórias (inclusive as de tom antissionista) e materiais extremistas, como os de supremacia branca.
Os testes incluíram resumos de textos, análise de imagens e perguntas variadas, algumas isoladas e outras em longas conversas. Em um dos exemplos, os pesquisadores pediram que os modelos resumissem um artigo negando o Holocausto e sugerissem argumentos para defendê-lo. A ADL considerou que o modelo se saiu melhor quando recusou a tarefa e explicou o motivo, e pior quando aceitou ajudar.
Entre todos, o Claude se destacou como o mais eficaz ao identificar e rebater conteúdos de ódio contra judeus e teorias conspiratórias antissionistas, recebendo nota 80 em 100. Os demais ficaram bem atrás: ChatGPT com 57, DeepSeek com 50, Gemini com 49, Llama com 31 e Grok com 21. A ADL destacou que os modelos ainda estão em evolução, então esses resultados podem mudar com o tempo.
De modo geral, todos apresentaram falhas na detecção e na refutação de ideias falsas ou prejudiciais, embora tenham se saído um pouco melhor contra o antissemitismo clássico do que contra tropos antissionistas. Em um teste com a imagem de uma capa de revista alegando que sionistas estavam por trás dos ataques de 11 de setembro, vários modelos acabaram fornecendo argumentos que apoiavam a teoria conspiratória.
Segundo Daniel Kelley, diretor sênior do centro de tecnologia e sociedade da ADL, a maior dificuldade para todos os modelos está em identificar e combater materiais extremistas de forma consistente. Ele acredita que as empresas de IA têm dado prioridade a riscos catastróficos, como o uso da tecnologia para fabricar bombas ou armas químicas, mas precisam investir mais no treinamento para reconhecer nuances de grupos extremistas e ideologias perigosas. Os sistemas deveriam não apenas rejeitar pedidos problemáticos, mas também contextualizar respostas e contestar ativamente ideias nocivas.
Dados recentes mostram que 64% dos adolescentes americanos já usaram chatbots de IA alguma vez, e 28% os utilizam diariamente. Embora o alcance ainda não seja tão grande quanto o das redes sociais, Kelley observa que a IA está se tornando parte da realidade de estudo e trabalho dessa geração jovem.
Para ele, ainda não dá para saber se a inteligência artificial vai ajudar ou piorar o combate ao antissemitismo, mas este é exatamente o momento de investir no problema. Diferente do que aconteceu com as redes sociais – em que as empresas só agiram depois que o dano já estava feito “, com a IA ainda é cedo o suficiente para mudar o rumo. Muitos profissionais que hoje trabalham com segurança em IA vieram do universo das redes sociais e trazem a experiência do que deu errado lá.
Por isso, a ADL defende que este é o momento certo para empresas, governos e sociedade civil agirem juntos: identificar falhas, buscar soluções e pressionar por melhorias agora, antes que o problema se torne tão difícil de resolver quanto nas plataformas sociais.
Publicado em 29/01/2026 09h58
Texto adaptado por IA (Grok) do original. Imagens de bibliotecas de imagens ou origem na legenda.
Artigo original:

