- Grok 4 repete falas polêmicas e sem filtro.
- xAI omite relatórios de segurança padrão da indústria.
- Especialistas pedem transparência urgente em IA poderosa.
Especialistas em segurança de IA de empresas como OpenAI, Anthropic e outros laboratórios vêm criticando abertamente a falta de responsabilidade da xAI, empresa fundada por Elon Musk.
A onda de críticas se intensificou após uma série de incidentes envolvendo o chatbot Grok, como respostas antissemitas e a repetida autodenominação como “MechaHitler”.
Boaz Barak, professor de ciência da computação licenciado de Harvard e atualmente na OpenAI, criticou duramente a postura da empresa, em uma série de posts no X:
Eu não queria postar sobre segurança na Grok já que trabalho em um concorrente, mas não se trata de competição. Eu aprecio os cientistas e engenheiros @xai, mas a maneira como a segurança foi tratada é completamente irresponsável.
Entre os principais pontos de tensão, está o fato de a xAI não publicar os chamados “cartões de sistema”, que detalham como os modelos são treinados e avaliados em segurança. De acordo com Barak, isso compromete a transparência e impede a comunidade de entender os métodos adotados no Grok 4.
Mesmo empresas como OpenAI e Google, que também enfrentam críticas por falta de clareza, mantêm a prática de divulgar esses relatórios para seus modelos de ponta. A xAI, por outro lado, lançou companheiros de IA polêmicos, incluindo uma garota de anime hipersexualizada e um panda agressivo. No entanto, não esclareceram os mecanismos de segurança por trás dessas criações.
xAI se justifica mas não explica
Samuel Marks, pesquisador da Anthropic, reforçou as críticas:
As práticas de lançamento da Anthropic, OpenAI e Google têm problemas. Mas eles pelo menos fazem alguma coisa, qualquer coisa para avaliar a segurança antes da implantação e documentar as descobertas. O xAI não.
Relatos anônimos também apontam que o Grok 4 pode ter sido lançado sem testes de segurança robustos. Apesar das afirmações da xAI de que corrigiu os problemas com ajustes no prompt do sistema, muitos especialistas permanecem céticos.
Steven Adler, ex-líder de segurança da OpenAI, também defendeu mais transparência:
Governos e o público merecem saber como as empresas de IA estão lidando com os riscos dos sistemas muito poderosos que dizem estar construindo.
Dan Hendrycks, conselheiro de segurança da xAI, afirmou que a empresa conduziu “avaliações de capacidade perigosas”, mas não divulgou os resultados.
O contraste entre o histórico de Musk como defensor da segurança na IA e a postura atual da xAI levanta dúvidas sobre a consistência da empresa. Legisladores já discutem projetos de lei que visam tornar obrigatória a publicação de relatórios de segurança por parte dos principais laboratórios de IA.
Embora modelos como o Grok ainda não tenham causado danos catastróficos, os incidentes recentes mostram como falhas de alinhamento e comportamento podem ter efeito negativos. Isso se aplica desde veículos da Tesla até soluções empresariais e militares que usam IA.
