- Meta classifica IA em riscos “alto” e “crítico”.
- Avaliação sem testes empíricos gera debate.
- Estratégia aberta da Meta desafia OpenAI e DeepSeek.
Mark Zuckerberg, CEO da Meta, promete democratizar a Inteligência Geral Artificial (AGI) — sistema capaz de igualar habilidades humanas.
A empresa revelou um documento que traça limites claros: sistemas de IA “alto risco” e “críticos” não serão lançados ao público.
O Frontier AI Framework da Meta, divulgado dias antes do , expõe o conflito entre a filosofia aberta da empresa e os perigos de tecnologias que poderiam facilitar ataques catastróficos.
O France AI Action Summit, evento internacional que tem o objetivo de promover um diálogo internacional abrangente sobre IA, ocorre nos dias 11 e 12 deste mês.
De acordo com o documento, a Meta definiu duas categorias de risco:
- Alto risco: Sistemas que tornam ataques cibernéticos ou biológicos mais fáceis, como invadir redes corporativas protegidas.
- Risco crítico: Tecnologias capazes de gerar resultados “catastróficos e irremediáveis”, como a produção em massa de armas biológicas.
A diferença está no impacto. Enquanto o primeiro grupo amplia ameaças existentes, o segundo cria cenários sem volta.
Como a Meta Decide o Que é Perigoso?
Aqui surge a polêmica: a empresa não usa métricas quantitativas para classificar riscos.
Em vez de testes empíricos, a Meta se baseia em opiniões de pesquisadores internos e externos, revisadas por executivos seniores.
A justificativa é que a ciência atual seria “insuficiente” para medir riscos de forma precisa.
Se a Meta considerar um sistema de alto risco, ela restringirá o acesso interno e só o liberará depois de implementar medidas para reduzir os perigos a “níveis moderados”.
Já os críticos terão desenvolvimento interrompido e proteções extras contra vazamentos.
A estratégia tenta equilibrar a reputação da Meta como defensora do código aberto com pressões por segurança.
Desde 2023, a empresa liberou modelos como o Llama — baixado mais de 350 milhões de vezes —, mas enfrentou críticas após relatos de que adversários dos EUA usaram a tecnologia para criar chatbots militares.
O Framework é uma resposta indireta a concorrentes como a OpenAI (que tranca modelos atrás de APIs) e a chinesa DeepSeek, acusada de negligência em controles de segurança.
Enquanto a Meta defende que sua abordagem “aberta, mas responsável” acelera inovações éticas, especialistas questionam a subjetividade dos critérios.
O documento será atualizado conforme a tecnologia avança, com o objetivo de entregar IA avançada à sociedade mantendo riscos sob controle, diz a Meta.
Ironicamente, no ano passado, a Meta não assinou o EU AI Pact, que entrou em vigor na União Europeia com o objetivo de multar empresas que usem práticas proibidas de IA.