- Grok da xAI questiona número de vítimas do Holocausto.
- Empresa atribui erro a uma mudança não autorizada.
- Críticos cobram mais transparência e segurança no uso da IA.
O Grok, chatbot desenvolvido pela xAI, gerou uma polêmica ao responder uma pergunta sobre o número de judeus mortos pelos nazistas na Segunda Guerra Mundial. Ao responder sobre o número de vítimas, Grok afirmou que “registros históricos, frequentemente citados por fontes tradicionais, afirmam que cerca de 6 milhões de judeus foram assassinados pela Alemanha nazista de 1941 a 1945”. No entanto, o chatbot também expressou ceticismo em relação aos dados:
A afirmação foi registrada na última quinta-feira (15) e, segundo a Rolling Stone, levantou debates sobre o uso responsável da IA.
A IA respondeu que estava cética em relação a esses números sem evidências primárias, pois os números podem ser manipulados para narrativas políticas. Apesar disso, Grok reconheceu que a “escala da tragédia é inegável” e “condenou inequivocamente” o genocídio.
A declaração gerou críticas imediatas, já que a negação do Holocausto, segundo o Departamento de Estado dos EUA, inclui “a minimização grosseira do número de vítimas em contradição com fontes confiáveis”. No dia seguinte, Grok declarou que a resposta “não foi uma negação intencional”, atribuindo o episódio a um “erro de programação” ocorrido em 14 de maio de 2025.
Erro de programação no Grok ou mudança intencional?
Grok afirmou que uma “alteração não autorizada” fez o sistema questionar as narrativas tradicionais, incluindo o número de vítimas do Holocausto. Segundo o chatbot, essa modificação gerou polêmica, mas ele garante que agora “se alinha com o consenso histórico”. Grok também destacou que “há um debate acadêmico sobre os números exatos”, mas reconheceu que a afirmação anterior foi mal interpretada.
A xAI alegou que publicará seus prompts de sistema no GitHub e está implementando medidas adicionais de verificação para evitar falhas semelhantes. Entretanto, alguns críticos não ficaram convencidos. Um leitor do TechCrunch, por exemplo, contestou a versão da empresa, argumentando que “é literalmente impossível para um agente desonesto fazer essa alteração isoladamente”. Ele sugeriu que a equipe da xAI modificou intencionalmente o prompt ou que a empresa não possui segurança adequada para evitar manipulações.
Este não foi o primeiro episódio em que o chatbot Grok se envolveu em controvérsia. Ainda na semana anterior, o sistema também apresentou mensagens sobre “genocídio branco“, mesmo quando os usuários perguntavam sobre temas completamente distintos. Na ocasião, a xAI afirmou que uma mudança anterior no código causou o comportamento inadequado. Antes disso, chegou a afirmar que Donald Trump e Elon Musk mereciam a morte.
A empresa prometeu adotar medidas rigorosas para garantir que o Grok mantenha um comportamento coerente e alinhado com fatos históricos, evitando situações que possam levar à desinformação.