Tech2 News Logo Dark Tech2 News Logo Light
Grupo de Ofertas
  • Notícias
  • Apps
  • Auto
  • Inteligência Artificial
  • Ciência
  • Celular
  • Games
  • Software
    • VPN
  • Apostas
Você está lendo: OpenAI, dona do ChatGPT, revelou que Irã, China, Israel e Rússia usaram inteligência artificial para espalhar fake news
Compartilhe
Font ResizerAa
Tech2Tech2
Pesquisar
  • Últimas Notícias
  • Apostas
  • Apps
  • Auto
  • Celular
  • Ciência
  • Computador
  • Curiosidades
  • Inteligência Artificial
  • Internet
  • Games
  • Software
    • VPN
  • Universo
Tech2 > Inteligência Artificial > OpenAI, dona do ChatGPT, revelou que Irã, China, Israel e Rússia usaram inteligência artificial para espalhar fake news
Inteligência Artificial

OpenAI, dona do ChatGPT, revelou que Irã, China, Israel e Rússia usaram inteligência artificial para espalhar fake news

Por Cássio Gusson
Última Atualização: 12/11/2024
Compartilhe
OpenAI, dona do ChatGPT, revelou que Irã, China, Israel e Rússia usaram inteligência artificial para espalhar fake news
OpenAI, dona do ChatGPT, revelou que Irã, China, Israel e Rússia usaram inteligência artificial para espalhar fake news. Foto: Dall-e
Compartilhe

A OpenAI, criadora do ChatGPT, revelou em um relatório que agentes estatais e privados de países como Irã, China, Israel e Rússia utilizaram inteligência artificial (IA) para disseminar desinformação e manipular a opinião pública.

Em um anúncio feito na quinta-feira (30), a OpenAI detalhou como cancelou contas relacionadas a cinco operações de influência que usaram suas ferramentas de IA generativa para criar e espalhar fake news. Essas operações foram projetadas para interferir em eleições e moldar opiniões públicas em diversos países, incluindo os Estados Unidos e nações da Europa.

Entre as operações identificadas está a “Bad Grammar”, da Rússia, que operava principalmente no Telegram, visando a Ucrânia, Moldávia, os Estados Bálticos e os Estados Unidos. Utilizando os modelos da OpenAI, essa operação gerava comentários políticos curtos em russo e inglês, além de depurar código para executar um bot no Telegram.

Outra operação russa, denominada “Doppelganger”, usava IA para gerar comentários em vários idiomas, incluindo inglês, francês, alemão, italiano e polonês, que eram postados no X (antigo Twitter) e 9GAG. A IA também foi empregada para traduzir e editar artigos que eram publicados em sites vinculados à operação e converter matérias jornalísticas em postagens no Facebook.

A “Spamouflage”, uma rede chinesa de desinformação bem conhecida, usava os modelos da OpenAI para pesquisar atividades de mídia social, gerar textos em chinês, inglês, japonês e coreano e depurar código para gerenciar bancos de dados e sites. Esses textos eram postados em várias plataformas, como X, Medium e Blogspot.

  • Leia também: Itaú, Bradesco, Santander e Caixa vão revelar estratégias de migração para a nuvem

ChatGPT e fake news

No Irã, a “International Union of Virtual Media” (IUVM) utilizava IA para gerar e traduzir artigos longos, manchetes e tags de sites, publicando o conteúdo em um site associado à operação.

Por fim, a operação “ZeroZeno”, ligada a uma empresa comercial em Israel chamada STOIC, empregava IA para criar artigos e comentários postados em plataformas como Instagram, Facebook e Twitter/X.

Embora a OpenAI tenha bloqueado essas contas, o conteúdo gerado por elas continua circulando na internet, pois a empresa não pode controlar o material postado nas redes sociais. O relatório destaca que, desde o início de maio, as campanhas de desinformação não parecem ter aumentado significativamente o engajamento ou o alcance do público após a interrupção das contas.

Apesar de minimizar o impacto dessas operações, a OpenAI reconhece que o uso de IA generativa para fins nocivos é uma preocupação crescente. Especialistas alertam que controlar esse efeito colateral não será fácil, e o caso expõe os riscos associados ao uso de IA para espalhar desinformação.

A OpenAI ressalta no relatório as vantagens que a IA oferece nas investigações para detectar campanhas de influência, mas admite que detectar e interromper abusos multiplataforma pode ser desafiador, pois nem sempre é possível saber como o conteúdo gerado é distribuído.

  • Leia também: Adolescentes têm recurso ampliado para proteção de assédio no Instagram

Leia Também

ElevenLabs lança IA para criar músicas com uso comercial liberado
ChatGPT agora vai detectar sofrimento emocional e emitir alertas
Genie 3: DeepMind apresenta IA que pode gerar qualquer mundo real ou imaginário
Autor de best-sellers, Yuval Harari diz que IA pode dominar narrativas e enganar humanos
Grok Imagine libera geração de vídeos adultos com IA no app da X
Sobre:ChatGPTfake newsOpenAI
Compartilhe:
Facebook Whatsapp Whatsapp Telegram Copiar Link
Cássio Gusson
PorCássio Gusson
Siga:
Jornalista especializado em tecnologia, com atuação de mais de 10 anos no setor tech público e privado, tendo realizado a cobertura de diversos eventos, premiações a anúncios.

Mais Lidas

  • Quem Somos
  • Política Editorial
  • Política de Privacidade
  • Sitemap
  • Contato

Redes: 

© 2024 Tech2. Todos os direitos reservado

Welcome Back!

Sign in to your account

Username or Email Address
Password

Lost your password?