OpenAI pode afrouxar regras se rivais lançarem IA perigosa
Empresa aposta em testes automatizados para acelerar lançamentos
Ex-funcionários alertam para risco de cortes em segurança
A OpenAI anunciou que cogita mudar suas regras de segurança caso rivais lancem modelos de inteligência artificial perigosos sem proteções adequadas.
A medida consta em uma atualização do Preparedness Framework, estrutura interna usada para medir o risco e a segurança de novos sistemas.
A decisão responde à crescente corrida no setor de IA, marcada por lançamentos rápidos e concorrência agressiva. A OpenAI afirmou que ainda manteria suas salvaguardas em “nível mais protetor”, mesmo que flexibilize exigências.
Pressão do mercado força OpenAI a rever cenário de segurança
A OpenAI publicou o novo posicionamento em seu blog, na tarde de terça-feira. Segundo a empresa, ajustes só ocorrerão caso outro laboratório lance um sistema de alto risco, sem salvaguardas comparáveis.
Antes de qualquer mudança, a equipe promete verificar se o risco de fato mudou e reconhecer publicamente os ajustes feitos.
Essa possível mudança chega em meio a críticas crescentes. Ex-funcionários da OpenAI acusam a empresa de ceder à pressão comercial. Segundo uma petição apresentada no caso movido por Elon Musk, a companhia estaria inclinada a cortar custos com segurança.
O temor aumenta com a proposta de reestruturação corporativa, que, segundo críticos, incentiva menos rigor nos testes.
Automação avança nos testes e aumenta dúvidas
A OpenAI também revelou uma nova diretriz que prioriza testes automatizados no desenvolvimento de IA. A empresa afirma que, embora ainda use avaliações humanas, agora aposta mais em processos automatizados.
Com isso, pretende manter o ritmo acelerado de lançamentos sem perder o controle sobre potenciais riscos graves.
No entanto, o Financial Times afirma que testadores receberam menos de uma semana para revisar um importante modelo, um prazo menor que em lançamentos anteriores.
Além disso, parte dos testes teria ocorrido em versões antigas dos modelos, o que levanta dúvidas sobre a confiabilidade dos resultados.
A OpenAI também atualizou a forma como classifica os modelos por risco. Agora, ela divide os sistemas entre os de “capacidade alta” e “capacidade crítica”. Os modelos críticos são aqueles que podem criar novos caminhos sem precedentes para danos graves, segundo a empresa.
Esses sistemas exigem salvaguardas rígidas durante o desenvolvimento, e não apenas na hora de lançar.
Com o setor de IA evoluindo em ritmo frenético, a discussão sobre segurança ganha novos contornos. A OpenAI, que antes liderava a defesa por regras rígidas, agora reconhece que talvez precise se adaptar ao jogo dos concorrentes.