ChatGPT alucina e afirma falsamente que homem matou os próprios filhos

Por Luciano Rodrigues
Imagem: Dall-E
  • ChatGPT acusou falsamente um homem de assassinato.
  • OpenAI pode enfrentar sanções por violação do GDPR.
  • Reguladores europeus aumentam pressão sobre empresas de IA.

O ChatGPT, da OpenAI, voltou ao centro das polêmicas após gerar informações falsas e difamatórias sobre um homem norueguês. Arve Hjalmar Holmen, ao pesquisar seu próprio nome na ferramenta, descobriu que o chatbot o acusava de assassinar dois de seus filhos e tentar matar um terceiro.

O ChatGPT afirmou falsamente que ele foi sentenciado a 21 anos de prisão como “um criminoso condenado que assassinou dois de seus filhos e tentou assassinar o terceiro”.

Segundo as informações, o ChatGPT alucinou eventos que nunca aconteceram, mas também misturou “dados pessoais claramente identificáveis”. Como, por exemplo, o número real e o gênero dos filhos de Holmen e o nome de sua cidade natal — com “informações falsas”.

A organização Noyb, que defende os direitos digitais na União Europeia, entrou com uma queixa contra a OpenAI, por violação do Regulamento Geral de Proteção de Dados (GDPR). De acordo com a denúncia, o ChatGPT criou um cenário prejudicial e sem possibilidade de correção por parte do usuário.

Alguns pensam que ‘não há fumaça sem fogo’. O fato de alguém poder ler essa saída e acreditar que é verdade é o que mais me assusta – afirmou Holmen.

Embora a OpenAI tenha ajustado o modelo, a informação falsa pode continuar armazenada nos dados internos da empresa.

CONTINUA APÓS A PUBLICIDADE

Recentemente, alucinações também apareceram ao citar crimes que não ocorreram, prejudicando o trabalho de advogados.

ChatGPT pode sofrer sanções na Europa

A OpenAI enfrenta crescente escrutínio na Europa. O Conselho Europeu de Proteção de Dados já analisa possíveis violações. Autoridades italianas, por exemplo, multaram recentemente a OpenAI em R$ 90,56 milhões (US$ 16 milhões) por falhas na proteção de dados. Se a Noruega confirmar que a OpenAI impede usuários de corrigirem informações falsas, o governo poderá obrigar a empresa a ajustar seu modelo de IA ou até revisar completamente seu algoritmo

A decisão pode criar um precedente importante para regulamentações de IA. Além disso, reforça a necessidade de mecanismos transparentes de correção e maior controle sobre os dados processados por modelos generativos.

Compartilhe:
Siga:
Jornalista, assessor de comunicação, escritor e comunicador, com MBA em jornalismo digital e 12 anos de experiência, tendo passado também por alguns veículos no setor tech.
Sair da versão mobile