Tech2 News Logo Dark Tech2 News Logo Light
Grupo de Ofertas
  • Notícias
  • Apps
  • Auto
  • Inteligência Artificial
  • Ciência
  • Celular
  • Games
  • Software
    • VPN
  • Apostas
Você está lendo: xAI tem falhas graves na segurança, alertam pesquisadores
Compartilhe
Font ResizerAa
Tech2Tech2
Pesquisar
  • Últimas Notícias
  • Apostas
  • Apps
  • Auto
  • Celular
  • Ciência
  • Computador
  • Curiosidades
  • Inteligência Artificial
  • Internet
  • Games
  • Software
    • VPN
  • Universo
Tech2 > Inteligência Artificial > xAI tem falhas graves na segurança, alertam pesquisadores
Inteligência Artificial

xAI tem falhas graves na segurança, alertam pesquisadores

Por Luciano Rodrigues
Última Atualização: 16/07/2025
Compartilhe
xAI tem falhas graves na segurança, alertam pesquisadores - Imagem: ChatGPT
Compartilhe
  • Grok 4 repete falas polêmicas e sem filtro.
  • xAI omite relatórios de segurança padrão da indústria.
  • Especialistas pedem transparência urgente em IA poderosa.

Especialistas em segurança de IA de empresas como OpenAI, Anthropic e outros laboratórios vêm criticando abertamente a falta de responsabilidade da xAI, empresa fundada por Elon Musk.

A onda de críticas se intensificou após uma série de incidentes envolvendo o chatbot Grok, como respostas antissemitas e a repetida autodenominação como “MechaHitler”.

Boaz Barak, professor de ciência da computação licenciado de Harvard e atualmente na OpenAI, criticou duramente a postura da empresa, em uma série de posts no X:

Eu não queria postar sobre segurança na Grok já que trabalho em um concorrente, mas não se trata de competição. Eu aprecio os cientistas e engenheiros @xai, mas a maneira como a segurança foi tratada é completamente irresponsável.

Entre os principais pontos de tensão, está o fato de a xAI não publicar os chamados “cartões de sistema”, que detalham como os modelos são treinados e avaliados em segurança. De acordo com Barak, isso compromete a transparência e impede a comunidade de entender os métodos adotados no Grok 4.

Mesmo empresas como OpenAI e Google, que também enfrentam críticas por falta de clareza, mantêm a prática de divulgar esses relatórios para seus modelos de ponta. A xAI, por outro lado, lançou companheiros de IA polêmicos, incluindo uma garota de anime hipersexualizada e um panda agressivo. No entanto, não esclareceram os mecanismos de segurança por trás dessas criações.

xAI se justifica mas não explica

Samuel Marks, pesquisador da Anthropic, reforçou as críticas:

As práticas de lançamento da Anthropic, OpenAI e Google têm problemas. Mas eles pelo menos fazem alguma coisa, qualquer coisa para avaliar a segurança antes da implantação e documentar as descobertas. O xAI não.

Relatos anônimos também apontam que o Grok 4 pode ter sido lançado sem testes de segurança robustos. Apesar das afirmações da xAI de que corrigiu os problemas com ajustes no prompt do sistema, muitos especialistas permanecem céticos.

Steven Adler, ex-líder de segurança da OpenAI, também defendeu mais transparência:

Governos e o público merecem saber como as empresas de IA estão lidando com os riscos dos sistemas muito poderosos que dizem estar construindo.

Dan Hendrycks, conselheiro de segurança da xAI, afirmou que a empresa conduziu “avaliações de capacidade perigosas”, mas não divulgou os resultados.

O contraste entre o histórico de Musk como defensor da segurança na IA e a postura atual da xAI levanta dúvidas sobre a consistência da empresa. Legisladores já discutem projetos de lei que visam tornar obrigatória a publicação de relatórios de segurança por parte dos principais laboratórios de IA.

Embora modelos como o Grok ainda não tenham causado danos catastróficos, os incidentes recentes mostram como falhas de alinhamento e comportamento podem ter efeito negativos. Isso se aplica desde veículos da Tesla até soluções empresariais e militares que usam IA.

Leia Também

ElevenLabs lança IA para criar músicas com uso comercial liberado
ChatGPT agora vai detectar sofrimento emocional e emitir alertas
Genie 3: DeepMind apresenta IA que pode gerar qualquer mundo real ou imaginário
Autor de best-sellers, Yuval Harari diz que IA pode dominar narrativas e enganar humanos
Grok Imagine libera geração de vídeos adultos com IA no app da X
Sobre:CríticasElon MuskGrokinteligência artificialxAI
Compartilhe:
Facebook Whatsapp Whatsapp Telegram Copiar Link
Luciano Rodrigues
PorLuciano Rodrigues
Siga:
Jornalista, assessor de comunicação, escritor e comunicador, com MBA em jornalismo digital e 12 anos de experiência, tendo passado também por alguns veículos no setor tech.

Mais Lidas

  • Quem Somos
  • Política Editorial
  • Política de Privacidade
  • Sitemap
  • Contato

Redes: 

© 2024 Tech2. Todos os direitos reservado

Welcome Back!

Sign in to your account

Username or Email Address
Password

Lost your password?