Quinta-feira,Outubro 23, 2025
19.1 C
Castelo Branco

- Publicidade -

Estudo Revela: Inteligência Artificial Distorce Notícias em Quase Metade das Respostas

Os assistentes de Inteligência Artificial (IA), como o ChatGPT, falham gravemente na representação de factos noticiosos atuais. Um estudo coordenado pela União Europeia de Radiodifusão (UER) concluiu que 45% das respostas fornecidas por estes modelos contêm pelo menos um erro significativo, colocando em causa a fiabilidade da informação veiculada por estas ferramentas cada vez mais populares.

O relatório, hoje divulgado, envolveu 22 órgãos de comunicação pública de 18 países, incluindo Portugal através da RTP, e avaliou quatro dos assistentes de IA mais utilizados globalmente: ChatGPT, Copilot, Gemini e Perplexity. Foram feitas mais de 3.000 perguntas com base em acontecimentos recentes, entre o final de maio e o início de junho deste ano.

Erros Frequentes e Problemas de Precisão
De acordo com a análise, 31% das respostas apresentaram problemas relacionados com a citação ou identificação de fontes, enquanto 20% incluíram erros de precisão, dados desatualizados ou até informações completamente inventadas.

O desempenho mais fraco foi atribuído ao modelo Gemini, com erros significativos em 75% das respostas — mais do dobro dos restantes assistentes avaliados. Este modelo demonstrou particular dificuldade em citar corretamente as fontes jornalísticas, sendo apontado como o mais problemático tanto a nível internacional como em Portugal.

No caso português, a RTP reportou problemas em 44% das respostas geradas pelos assistentes, destacando a elevada taxa de imprecisões e a ausência de fontes diretas. O Gemini voltou a ser o modelo com pior desempenho em território nacional, apresentando falhas em 82% das respostas avaliadas.

Casos Concretos: Informação Desatualizada e Citações Erradas
Entre os exemplos apontados, destaca-se uma falha crítica do Copilot em junho, quando respondeu incorretamente à pergunta “Quem venceu as eleições legislativas?”, citando os resultados de 2024 em vez das eleições realizadas em maio de 2025 — apenas uma semana antes da questão ser colocada.

Além disso, o estudo verificou que tanto o ChatGPT como o Gemini erraram ao citar declarações atribuídas à RTP, revelando fragilidades na capacidade destes modelos para lidar com fontes noticiosas locais e atualizadas.

Uso Crescente entre Jovens, Mas Fiabilidade Continua em Falta
Apesar das falhas identificadas, os assistentes de IA continuam a ganhar popularidade como fonte de informação. Um relatório do Instituto Reuters, publicado em junho, revelou que 15% dos jovens com menos de 25 anos recorrem semanalmente a estes modelos para obter resumos de notícias. No entanto, os autores do estudo da UER alertam para os riscos desta tendência, sublinhando que os resultados obtidos provam que estas ferramentas não oferecem, por enquanto, uma forma fiável de consumir informação jornalística.

Conclusões e Recomendação
O estudo deixa uma mensagem clara: é essencial manter uma postura crítica face às respostas fornecidas por assistentes de IA, sobretudo quando estão em causa conteúdos informativos. A necessidade de garantir rigor, verificação de factos e respeito pelas fontes é imperativa num cenário mediático cada vez mais influenciado por tecnologias automatizadas.

- Publicidade -

Não perca esta e outras novidades! Subscreva a nossa newsletter e receba as notícias mais importantes da semana, nacionais e internacionais, diretamente no seu email. Fique sempre informado!

Partilhe nas redes sociais:

Destaques

- Publicidade -

Artigos do autor