
FOTO DO ARQUIVO: Os principais assistentes de IA deturpam o conteúdo das notícias em quase metade de suas respostas, de acordo com uma nova pesquisa da European Broadcasting Union (EBU) e da BBC. | Crédito da foto: Reuters
Os principais assistentes de IA deturpam o conteúdo das notícias em quase metade das suas respostas, de acordo com uma nova pesquisa publicada na quarta-feira pela União Europeia de Radiodifusão (EBU) e pela BBC.
A pesquisa internacional estudou 3.000 respostas a perguntas sobre notícias dos principais assistentes de inteligência artificial – aplicativos de software que usam IA para entender comandos de linguagem natural para completar tarefas para um usuário.
Ele avaliou assistentes de IA em 14 idiomas quanto à precisão, fonte e capacidade de distinguir opinião versus fato, incluindo ChatGPT, Copilot, Gemini e Perplexity.
No geral, 45% das respostas de IA estudadas continham pelo menos um problema significativo, com 81% apresentando algum tipo de problema, mostrou a pesquisa.
A Reuters entrou em contato com as empresas para solicitar comentários sobre as descobertas.
Gemini, assistente de IA do Google, declarou anteriormente em seu site que agradece feedback para que possa continuar a melhorar a plataforma e torná-la mais útil para os usuários.
A OpenAI e a Microsoft afirmaram anteriormente que as alucinações – quando um modelo de IA gera informações incorretas ou enganosas, muitas vezes devido a fatores como dados insuficientes – são um problema que procuram resolver.
A Perplexity afirma em seu site que um de seus modos de “Pesquisa Profunda” tem 93,9% de precisão em termos de factualidade.
ERROS DE FONTE
Um terço das respostas dos assistentes de IA mostrou erros graves de fornecimento, como atribuição ausente, enganosa ou incorreta, de acordo com o estudo.
Cerca de 72% das respostas do Gemini, assistente de IA do Google, tiveram problemas significativos de fornecimento, em comparação com menos de 25% para todos os outros assistentes, disse.
Problemas de precisão foram encontrados em 20% das respostas de todos os assistentes de IA estudados, incluindo informações desatualizadas, afirmou.
Os exemplos citados pelo estudo incluem Gemini declarando incorretamente mudanças em uma lei sobre vapes descartáveis e ChatGPT relatando o Papa Francisco como o atual Papa vários meses após sua morte.
Vinte e duas organizações de comunicação social de serviço público de 18 países, incluindo França, Alemanha, Espanha, Ucrânia, Grã-Bretanha e Estados Unidos, participaram no estudo.
Com os assistentes de IA substituindo cada vez mais os mecanismos de busca tradicionais de notícias, a confiança do público poderá ser prejudicada, disse a EBU.
“Quando as pessoas não sabem em que confiar, acabam por não confiar em nada, e isso pode impedir a participação democrática”, disse o diretor de comunicação social da EBU, Jean Philip De Tender, num comunicado.
Cerca de 7% de todos os consumidores de notícias online e 15% dos menores de 25 anos utilizam assistentes de IA para obter as suas notícias, de acordo com o Digital News Report 2025 do Reuters Institute.
O novo relatório instou as empresas de IA a serem responsabilizadas e a melhorar a forma como os seus assistentes de IA respondem a perguntas relacionadas com notícias.
Publicado – 22 de outubro de 2025, 10h27 IST








