Meta promete IA aberta, mas impõe restrições a sistemas ‘catastróficos’

Por Luciano Rodrigues
Imagem: Dall-E
  • Meta classifica IA em riscos “alto” e “crítico”.
  • Avaliação sem testes empíricos gera debate.
  • Estratégia aberta da Meta desafia OpenAI e DeepSeek.

Mark Zuckerberg, CEO da Meta, promete democratizar a Inteligência Geral Artificial (AGI) — sistema capaz de igualar habilidades humanas.

A empresa revelou um documento que traça limites claros: sistemas de IA “alto risco” e “críticos” não serão lançados ao público.

O Frontier AI Framework da Meta, divulgado dias antes do , expõe o conflito entre a filosofia aberta da empresa e os perigos de tecnologias que poderiam facilitar ataques catastróficos.

O France AI Action Summit, evento internacional que tem o objetivo de promover um diálogo internacional abrangente sobre IA, ocorre nos dias 11 e 12 deste mês.

De acordo com o documento, a Meta definiu duas categorias de risco:

CONTINUA APÓS A PUBLICIDADE
    • Alto risco: Sistemas que tornam ataques cibernéticos ou biológicos mais fáceis, como invadir redes corporativas protegidas.
    • Risco crítico: Tecnologias capazes de gerar resultados “catastróficos e irremediáveis”, como a produção em massa de armas biológicas.

A diferença está no impacto. Enquanto o primeiro grupo amplia ameaças existentes, o segundo cria cenários sem volta.

Como a Meta Decide o Que é Perigoso?

Aqui surge a polêmica: a empresa não usa métricas quantitativas para classificar riscos.

Em vez de testes empíricos, a Meta se baseia em opiniões de pesquisadores internos e externos, revisadas por executivos seniores.

A justificativa é que a ciência atual seria “insuficiente” para medir riscos de forma precisa.

Se a Meta considerar um sistema de alto risco, ela restringirá o acesso interno e só o liberará depois de implementar medidas para reduzir os perigos a “níveis moderados”.

Já os críticos terão desenvolvimento interrompido e proteções extras contra vazamentos.

CONTINUA APÓS A PUBLICIDADE

A estratégia tenta equilibrar a reputação da Meta como defensora do código aberto com pressões por segurança.

Desde 2023, a empresa liberou modelos como o Llama — baixado mais de 350 milhões de vezes —, mas enfrentou críticas após relatos de que adversários dos EUA usaram a tecnologia para criar chatbots militares.

O Framework é uma resposta indireta a concorrentes como a OpenAI (que tranca modelos atrás de APIs) e a chinesa DeepSeek, acusada de negligência em controles de segurança.

Enquanto a Meta defende que sua abordagem “aberta, mas responsável” acelera inovações éticas, especialistas questionam a subjetividade dos critérios.

O documento será atualizado conforme a tecnologia avança, com o objetivo de entregar IA avançada à sociedade mantendo riscos sob controle, diz a Meta.

Ironicamente, no ano passado, a Meta não assinou o EU AI Pact, que entrou em vigor na União Europeia com o objetivo de multar empresas que usem práticas proibidas de IA.

Compartilhe:
Siga:
Jornalista, assessor de comunicação, escritor e comunicador, com MBA em jornalismo digital e 12 anos de experiência, tendo passado também por alguns veículos no setor tech.
Sair da versão mobile