- ChatGPT acusou falsamente um homem de assassinato.
- OpenAI pode enfrentar sanções por violação do GDPR.
- Reguladores europeus aumentam pressão sobre empresas de IA.
O ChatGPT, da OpenAI, voltou ao centro das polêmicas após gerar informações falsas e difamatórias sobre um homem norueguês. Arve Hjalmar Holmen, ao pesquisar seu próprio nome na ferramenta, descobriu que o chatbot o acusava de assassinar dois de seus filhos e tentar matar um terceiro.
O ChatGPT afirmou falsamente que ele foi sentenciado a 21 anos de prisão como “um criminoso condenado que assassinou dois de seus filhos e tentou assassinar o terceiro”.
Segundo as informações, o ChatGPT alucinou eventos que nunca aconteceram, mas também misturou “dados pessoais claramente identificáveis”. Como, por exemplo, o número real e o gênero dos filhos de Holmen e o nome de sua cidade natal — com “informações falsas”.
A organização Noyb, que defende os direitos digitais na União Europeia, entrou com uma queixa contra a OpenAI, por violação do Regulamento Geral de Proteção de Dados (GDPR). De acordo com a denúncia, o ChatGPT criou um cenário prejudicial e sem possibilidade de correção por parte do usuário.
Alguns pensam que ‘não há fumaça sem fogo’. O fato de alguém poder ler essa saída e acreditar que é verdade é o que mais me assusta – afirmou Holmen.
Embora a OpenAI tenha ajustado o modelo, a informação falsa pode continuar armazenada nos dados internos da empresa.
Recentemente, alucinações também apareceram ao citar crimes que não ocorreram, prejudicando o trabalho de advogados.
ChatGPT pode sofrer sanções na Europa
A OpenAI enfrenta crescente escrutínio na Europa. O Conselho Europeu de Proteção de Dados já analisa possíveis violações. Autoridades italianas, por exemplo, multaram recentemente a OpenAI em R$ 90,56 milhões (US$ 16 milhões) por falhas na proteção de dados. Se a Noruega confirmar que a OpenAI impede usuários de corrigirem informações falsas, o governo poderá obrigar a empresa a ajustar seu modelo de IA ou até revisar completamente seu algoritmo
A decisão pode criar um precedente importante para regulamentações de IA. Além disso, reforça a necessidade de mecanismos transparentes de correção e maior controle sobre os dados processados por modelos generativos.