Home / Gadgets / Os principais assistentes de IA deturpam o conteúdo das notícias, segundo estudo

Os principais assistentes de IA deturpam o conteúdo das notícias, segundo estudo

Os principais assistentes de IA deturpam o conteúdo das notícias em quase metade das suas respostas, de acordo com uma nova pesquisa publicada na quarta-feira pela União Europeia de Radiodifusão (EBU) e pela BBC.

A pesquisa internacional estudou 3.000 respostas a perguntas sobre notícias dos principais assistentes de inteligência artificial – aplicativos de software que usam IA para compreender comandos de linguagem natural para completar tarefas para um usuário.

Ele avaliou assistentes de IA em 14 idiomas quanto à precisão, fonte e capacidade de distinguir opinião versus fato, incluindo ChatGPT da OpenAI, Copilot da Microsoft, Gemini e Perplexity do Google.

No geral, 45% das respostas de IA estudadas continham pelo menos um problema significativo, com 81% apresentando algum tipo de problema, mostrou a pesquisa.

Cerca de sete por cento de todos os consumidores de notícias online e 15 por cento dos menores de 25 anos utilizam assistentes de IA para obter as suas notícias, de acordo com o Digital News Report 2025 do Reuters Institute.

A Reuters entrou em contato com as empresas para solicitar comentários sobre as descobertas.

Tela mostrando a palavra Gêmeos
Descobriu-se que assistentes de IA como Gemini, ChatGPT, Perplexity e Copilot continham pelo menos um problema quase metade das vezes em que eram questionados sobre notícias. (Dado Ruvic/Ilustração/Reuters)

Empresas dizem que querem melhorar

Gemini, assistente de IA do Google, declarou anteriormente em seu site que agradece feedback para que possa continuar a melhorar a plataforma e torná-la mais útil para os usuários.

A OpenAI e a Microsoft disseram anteriormente que as alucinações – quando um modelo de IA gera informações incorretas ou enganosas, muitas vezes devido a fatores como dados insuficientes – são um problema que procuram resolver.

A Perplexity afirma em seu site que um de seus modos de “Pesquisa Profunda” possui 93,9% de precisão em termos de factualidade.

Tela mostrando o logotipo e a palavra ChatGPT
A pesquisa analisou 3.000 respostas de empresas, incluindo ChatGPT. (Dado Ruvic/Ilustração/Reuters)

Assistentes de IA cometem erros frequentes de fornecimento

Um terço das respostas dos assistentes de IA mostrou erros graves de fornecimento, como atribuição ausente, enganosa ou incorreta, de acordo com o estudo.

Cerca de 72 por cento das respostas de Gemini, assistente de IA do Google, tiveram problemas significativos de fornecimento, em comparação com menos de 25 por cento de todos os outros assistentes, disse.

Problemas de precisão foram encontrados em 20% das respostas de todos os assistentes de IA estudados, incluindo informações desatualizadas, afirmou.

ASSISTA | Por que as organizações de notícias canadenses estão processando o ChatGPT:

Organizações de notícias canadenses, incluindo CBC, processam o criador do ChatGPT

CBC/Radio-Canada, Postmedia, Metroland, Toronto Star, Globe and Mail e The Canadian Press iniciaram uma ação conjunta contra o criador do ChatGPT, OpenAI, por usar conteúdo de notícias para treinar seu sistema de inteligência artificial generativa ChatGPT. As organizações de notícias dizem que a OpenAI viola os direitos autorais ao “raspar conteúdo” de seus sites.

Os exemplos citados pelo estudo incluem Gemini declarando incorretamente mudanças em uma lei sobre vapes descartáveis, e ChatGPT relatando o Papa Francisco como o atual Papa vários meses após sua morte.

Vinte e duas organizações de comunicação social de serviço público de 18 países, incluindo a CBC e a Rádio-Canada, bem como outras de França, Alemanha, Espanha, Ucrânia, Grã-Bretanha e Estados Unidos, participaram no estudo.

Com os assistentes de IA substituindo cada vez mais os mecanismos de busca tradicionais de notícias, a confiança do público poderá ser prejudicada, disse a EBU.

“Quando as pessoas não sabem em que confiar, acabam por não confiar em nada, e isso pode impedir a participação democrática”, disse o diretor de comunicação social da EBU, Jean Philip De Tender, num comunicado.

O relatório da EBU instou as empresas de IA a melhorar a forma como os seus assistentes de IA respondem a perguntas relacionadas com notícias e a serem mais responsáveis, citando o exemplo de como as próprias organizações de notícias têm “processos robustos para identificar, reconhecer e corrigir” erros.

“É importante garantir que exista a mesma responsabilidade para os assistentes de IA”, afirmou.

Fonte

Deixe um Comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *