A OpenAI, criadora do ChatGPT, revelou em um relatório que agentes estatais e privados de países como Irã, China, Israel e Rússia utilizaram inteligência artificial (IA) para disseminar desinformação e manipular a opinião pública.
Em um anúncio feito na quinta-feira (30), a OpenAI detalhou como cancelou contas relacionadas a cinco operações de influência que usaram suas ferramentas de IA generativa para criar e espalhar fake news. Essas operações foram projetadas para interferir em eleições e moldar opiniões públicas em diversos países, incluindo os Estados Unidos e nações da Europa.
Entre as operações identificadas está a “Bad Grammar”, da Rússia, que operava principalmente no Telegram, visando a Ucrânia, Moldávia, os Estados Bálticos e os Estados Unidos. Utilizando os modelos da OpenAI, essa operação gerava comentários políticos curtos em russo e inglês, além de depurar código para executar um bot no Telegram.
Outra operação russa, denominada “Doppelganger”, usava IA para gerar comentários em vários idiomas, incluindo inglês, francês, alemão, italiano e polonês, que eram postados no X (antigo Twitter) e 9GAG. A IA também foi empregada para traduzir e editar artigos que eram publicados em sites vinculados à operação e converter matérias jornalísticas em postagens no Facebook.
A “Spamouflage”, uma rede chinesa de desinformação bem conhecida, usava os modelos da OpenAI para pesquisar atividades de mídia social, gerar textos em chinês, inglês, japonês e coreano e depurar código para gerenciar bancos de dados e sites. Esses textos eram postados em várias plataformas, como X, Medium e Blogspot.
ChatGPT e fake news
No Irã, a “International Union of Virtual Media” (IUVM) utilizava IA para gerar e traduzir artigos longos, manchetes e tags de sites, publicando o conteúdo em um site associado à operação.
Por fim, a operação “ZeroZeno”, ligada a uma empresa comercial em Israel chamada STOIC, empregava IA para criar artigos e comentários postados em plataformas como Instagram, Facebook e Twitter/X.
Embora a OpenAI tenha bloqueado essas contas, o conteúdo gerado por elas continua circulando na internet, pois a empresa não pode controlar o material postado nas redes sociais. O relatório destaca que, desde o início de maio, as campanhas de desinformação não parecem ter aumentado significativamente o engajamento ou o alcance do público após a interrupção das contas.
Apesar de minimizar o impacto dessas operações, a OpenAI reconhece que o uso de IA generativa para fins nocivos é uma preocupação crescente. Especialistas alertam que controlar esse efeito colateral não será fácil, e o caso expõe os riscos associados ao uso de IA para espalhar desinformação.
A OpenAI ressalta no relatório as vantagens que a IA oferece nas investigações para detectar campanhas de influência, mas admite que detectar e interromper abusos multiplataforma pode ser desafiador, pois nem sempre é possível saber como o conteúdo gerado é distribuído.