Chatbots de IA distorcem notícias de forma perigosa, diz BBC

Por Luciano Rodrigues
Imagem: Dall-E

s

  • Chatbots de IA distorcem notícias e geram imprecisões preocupantes.
  • BBC cobra transparência de empresas sobre uso de inteligência artificial.
  • Pesquisa mostra falhas nos resumos de notícias feitos por IA.

Uma investigação conduzida pela BBC revelou que quatro dos principais chatbots de inteligência artificial estão resumindo notícias de maneira imprecisa. O estudo avaliou as respostas do ChatGPT (OpenAI), Copilot (Microsoft), Gemini (Google) e Perplexity AI e constatou erros graves e distorções nas informações fornecidas.

A CEO da BBC News and Current Affairs, Deborah Turness, expressou preocupação sobre o impacto desses erros, destacando que empresas responsáveis pelas tecnologias estão “brincando com fogo“.

Ela questionou quanto tempo levaria para que uma manchete distorcida pela IA resultasse em danos reais no mundo.

Vivemos em tempos difíceis, e quanto tempo levará até que uma manchete distorcida pela IA cause danos significativos no mundo real?

Erros e distorções nos resumos de chatbots de IA

Os testes da BBC envolveram 100 artigos e suas respectivas respostas geradas pelos chatbots. Os jornalistas da emissora avaliaram cada resumo e identificaram problemas significativos em 51% das respostas, ou seja, mais da metade. Além disso, 19% dos resumos que mencionavam diretamente o conteúdo da BBC apresentaram erros factuais, como números, datas e declarações incorretas.

Entre os equívocos encontrados, destacam-se:

CONTINUA APÓS A PUBLICIDADE
  • Gemini afirmou incorretamente que o NHS não recomendava vaporização como auxílio para parar de fumar.
  • ChatGPT e Copilot mencionaram líderes políticos que já haviam deixado seus cargos, como Rishi Sunak e Nicola Sturgeon.
  • Perplexity distorceu declarações da BBC sobre o Oriente Médio, sugerindo que o Irã inicialmente mostrou contenção, enquanto Israel teria sido agressivo.

Em resposta, a BBC propôs um diálogo aberto com empresas de tecnologia para buscar soluções conjuntas, buscando mais confiabilidade nos chatbots.

Deborah Turness pediu que essas companhias reavaliassem a prática de gerar resumos automáticos de notícias, citando a Apple, por exemplo, que interrompeu o uso da Apple Intelligence após reclamações de imprecisão.

O diretor do programa de IA generativa da BBC, Pete Archer, enfatizou que os editores devem ter controle sobre como seu conteúdo é utilizado e cobrou mais transparência das empresas responsáveis pelos assistentes virtuais. Segundo ele, as companhias de IA precisam divulgar a escala dos erros e imprecisões e garantir que os resumos não prejudiquem a compreensão dos fatos.

Compartilhe:
Siga:
Jornalista, assessor de comunicação, escritor e comunicador, com MBA em jornalismo digital e 12 anos de experiência, tendo passado também por alguns veículos no setor tech.
Sair da versão mobile