Grok, o chatbot de imagens da xAI, gera polêmica com conteúdos violentos e enganosos no X

Por Luciano Rodrigues
Grok, o chatbot de imagens da xAI, gera polêmica com conteúdos violentos e enganosos no X - Imagem: Dall-E

O chatbot Grok da xAI, integrado à rede social X (antigo Twitter), de Elon Musk, lançou nesta semana um novo recurso que permite aos usuários criar imagens a partir de prompts de texto. No entanto, o lançamento rapidamente se tornou controverso, à medida que usuários começaram a postar conteúdos altamente problemáticos, incluindo imagens violentas, enganosas e potencialmente prejudiciais.

Desde que o recurso foi disponibilizado para assinantes do X Premium, as imagens geradas por Grok têm sido um motivo de preocupação.

CONTINUA APÓS A PUBLICIDADE

Entre os exemplos mais alarmantes estão ilustrações de figuras políticas, como Barack Obama e Donald Trump, em situações violentas ou comprometedoras, como Obama esfaqueando Joe Biden ou Trump vestido com um uniforme nazista.

Essas imagens rapidamente ganharam atenção na plataforma, levantando questões sobre os riscos da IA generativa em um ambiente já sob escrutínio regulatório.

Grok afirma que possui filtros, mas imagens geradas sugerem o contrário

Embora Grok tenha afirmado que possui “guardrails” para evitar a criação de conteúdo inapropriado, os resultados até agora sugerem o contrário.

O chatbot se recusou a gerar apenas um pequeno número de imagens, enquanto permitiu a criação de diversas outras que seriam bloqueadas por plataformas concorrentes, como OpenAI.

CONTINUA APÓS A PUBLICIDADE

Este cenário é especialmente preocupante com a aproximação das eleições nos Estados Unidos e a crescente pressão dos reguladores europeus sobre o X.

No entanto, Musk parece estar mais interessado em permitir que os usuários “se divirtam” com o recurso, sem priorizar as normas de segurança comuns em outras grandes empresas de tecnologia.

Essa abordagem mais relaxada pode acabar prejudicando a plataforma, afastando usuários e anunciantes de alto perfil, além de aumentar a vigilância regulatória em um momento crítico.

Com a Comissão Europeia já investigando o X por possíveis violações do Digital Safety Act e o regulador britânico Ofcom se preparando para aplicar o Online Safety Act, a falta de salvaguardas no Grok pode ter consequências sérias para a plataforma.

CONTINUA APÓS A PUBLICIDADE

Enquanto isso, nos Estados Unidos, legisladores continuam a buscar formas de regulamentar a desinformação gerada por IA, especialmente em um contexto político tão polarizado.

 

Compartilhe:
Siga:
Jornalista, assessor de comunicação, escritor e comunicador, com MBA em jornalismo digital e 12 anos de experiência, tendo passado também por alguns veículos no setor tech.
Sair da versão mobile