OpenAI, dona do ChatGPT, revelou que Irã, China, Israel e Rússia usaram inteligência artificial para espalhar fake news

Por Cássio Gusson
OpenAI, dona do ChatGPT, revelou que Irã, China, Israel e Rússia usaram inteligência artificial para espalhar fake news. Foto: Dall-e

A OpenAI, criadora do ChatGPT, revelou em um relatório que agentes estatais e privados de países como Irã, China, Israel e Rússia utilizaram inteligência artificial (IA) para disseminar desinformação e manipular a opinião pública.

Em um anúncio feito na quinta-feira (30), a OpenAI detalhou como cancelou contas relacionadas a cinco operações de influência que usaram suas ferramentas de IA generativa para criar e espalhar fake news. Essas operações foram projetadas para interferir em eleições e moldar opiniões públicas em diversos países, incluindo os Estados Unidos e nações da Europa.

Entre as operações identificadas está a “Bad Grammar”, da Rússia, que operava principalmente no Telegram, visando a Ucrânia, Moldávia, os Estados Bálticos e os Estados Unidos. Utilizando os modelos da OpenAI, essa operação gerava comentários políticos curtos em russo e inglês, além de depurar código para executar um bot no Telegram.

Outra operação russa, denominada “Doppelganger”, usava IA para gerar comentários em vários idiomas, incluindo inglês, francês, alemão, italiano e polonês, que eram postados no X (antigo Twitter) e 9GAG. A IA também foi empregada para traduzir e editar artigos que eram publicados em sites vinculados à operação e converter matérias jornalísticas em postagens no Facebook.

A “Spamouflage”, uma rede chinesa de desinformação bem conhecida, usava os modelos da OpenAI para pesquisar atividades de mídia social, gerar textos em chinês, inglês, japonês e coreano e depurar código para gerenciar bancos de dados e sites. Esses textos eram postados em várias plataformas, como X, Medium e Blogspot.

ChatGPT e fake news

No Irã, a “International Union of Virtual Media” (IUVM) utilizava IA para gerar e traduzir artigos longos, manchetes e tags de sites, publicando o conteúdo em um site associado à operação.

Por fim, a operação “ZeroZeno”, ligada a uma empresa comercial em Israel chamada STOIC, empregava IA para criar artigos e comentários postados em plataformas como Instagram, Facebook e Twitter/X.

Embora a OpenAI tenha bloqueado essas contas, o conteúdo gerado por elas continua circulando na internet, pois a empresa não pode controlar o material postado nas redes sociais. O relatório destaca que, desde o início de maio, as campanhas de desinformação não parecem ter aumentado significativamente o engajamento ou o alcance do público após a interrupção das contas.

Apesar de minimizar o impacto dessas operações, a OpenAI reconhece que o uso de IA generativa para fins nocivos é uma preocupação crescente. Especialistas alertam que controlar esse efeito colateral não será fácil, e o caso expõe os riscos associados ao uso de IA para espalhar desinformação.

A OpenAI ressalta no relatório as vantagens que a IA oferece nas investigações para detectar campanhas de influência, mas admite que detectar e interromper abusos multiplataforma pode ser desafiador, pois nem sempre é possível saber como o conteúdo gerado é distribuído.

Compartilhe:
Siga:
Jornalista especializado em tecnologia, com atuação de mais de 10 anos no setor tech público e privado, tendo realizado a cobertura de diversos eventos, premiações a anúncios.
Sair da versão mobile