Governador da Califórnia veta controverso projeto de lei de segurança para IA

Por Luciano Rodrigues
Imagem: Dall-E

Enquanto a discussão sobre regulamentações para Inteligência Artificial seguem em todo o mundo, o governador da Califórnia, Gavin Newsom, vetou o polêmico Safe and Secure Innovation for Frontier Artificial Intelligence Models Act (SB 1047), um projeto de lei que teria estabelecido uma das regulamentações mais rígidas para empresas de IA nos Estados Unidos.

O projeto, que tinha como objetivo impor protocolos de segurança para grandes modelos de IA, levantou preocupações na indústria de tecnologia por seu potencial impacto na inovação.

Em sua mensagem de veto, Newsom afirmou que o SB 1047 colocaria um fardo excessivo sobre as empresas de IA, impactando até mesmo funções básicas de sistemas que não necessariamente envolvem tomadas de decisões críticas ou dados sensíveis.

Embora bem-intencionado, o SB 1047 não leva em consideração se um sistema de IA é implantado em ambientes de alto risco ou se envolve dados sensíveis. Ele aplica padrões rigorosos mesmo às funções mais básicas.

Newsom destacou que o projeto de lei poderia dar ao público uma falsa sensação de segurança, enquanto modelos menores e mais especializados poderiam surgir como igualmente perigosos.

Ele também mencionou a necessidade de uma análise mais empírica e detalhada sobre o impacto da IA, antes de adotar uma regulamentação ampla como a proposta pelo SB 1047.

O veto de Newsom gerou reações mistas entre os legisladores e figuras públicas.

O senador Scott Wiener, autor do projeto, criticou o veto

Um retrocesso para aqueles que acreditam na supervisão de grandes corporações que tomam decisões críticas para a segurança e o bem-estar público.

Wiener argumentou que a falta de regulamentação deixa as empresas de IA sem qualquer tipo de restrição, o que ele considera preocupante, especialmente diante da inércia do Congresso em relação à indústria de tecnologia.

Vários projetos foram aprovados na Califórnia neste mês

O SB 1047 previa a aplicação de regras rigorosas para empresas de IA que desenvolvem modelos com custo superior a cerca de R$ 545 milhões (US$ 100 milhões) para treinamento, ou R$ 54,5 milhões (US$ 10 milhões) para ajustes.

O texto do projeto exigia que os desenvolvedores implementassem mecanismos de segurança como um “kill switch”, além de protocolos de testes para evitar desastres como ataques cibernéticos ou pandemias.

Embora o projeto tivesse apoio de nomes como Elon Musk e figuras de Hollywood, incluindo Mark Hamill e Alyssa Milano, ele também enfrentou oposição de grandes empresas de tecnologia e até mesmo de democratas influentes, como a ex-presidente da Câmara Nancy Pelosi.

A Câmara do Progresso, uma coalizão que representa gigantes como Amazon, Meta e Google, também se posicionou contra o projeto, argumentando que ele “prejudicaria a inovação” e afetaria negativamente o crescimento econômico da Califórnia.

Enquanto isso, empresas como OpenAI e Anthropic expressaram preocupações, mas reconheceram melhorias após emendas no projeto. Mesmo assim, Jason Kwon, diretor de estratégia da OpenAI, declarou que o projeto atrasaria o progresso e que a regulamentação deveria vir do governo federal.

No último mês, Newsom sancionou mais de uma dúzia de outros projetos de lei de IA, que tentam abordar as questões mais urgentes, incluindo até nus deepfake criados por geradores de imagens de IA, até estúdios de Hollywood criando clones de IA de artistas mortos.

Compartilhe:
Siga:
Jornalista, assessor de comunicação, escritor e comunicador, com MBA em jornalismo digital e 12 anos de experiência, tendo passado também por alguns veículos no setor tech.
Sair da versão mobile