- UE probiu sistemas de IA de “risco inaceitável” em 2 de fevereiro.
- Multas podem chegar a R$ 210,76 milhões ou 7% do faturamento global das empresas.
- Práticas banidas incluem pontuação social, reconhecimento facial em tempo real e inferência de emoções no trabalho.
- Meta, Apple e startup francesa Mistral ignoraram pacto voluntário de adesão prévia.
A União Europeia (UE) deu o pontapé inicial para controlar os excessos da inteligência artificial.
Desde esse domingo (2), autoridades do bloco podem banir sistemas de IA considerados de “risco inaceitável” — como algoritmos que preveem crimes pela aparência ou inferem orientação sexual por biometria.
A medida, parte do AI Act, aprovado em março de 2023, marca a primeira etapa de uma regulamentação que promete redefinir o jogo global da tecnologia.
Empresas flagradas usando IA para práticas proibidas enfrentarão multas de até R$ 210,76 milhões (€35 milhões) ou 7% do faturamento global — o que for maior.
Rob Sumroy, especialista em tecnologia do escritório britânico Slaughter and May, em uma declaração ao site TechCrunch, ressaltou:
Espera-se que as organizações estejam totalmente em conformidade até 2 de fevereiro, mas… o próximo grande prazo que as empresas precisam estar cientes é em agosto. Até lá, saberemos quem são as autoridades competentes, e as multas e disposições de execução entrarão em vigor.
Inteligência Artificial sob ataque?
O AI Act divide os riscos da IA em quatro níveis.
- Risco mínimo (por exemplo, filtros de spam de e-mail) não enfrentará supervisão regulatória;
- Risco limitado, que inclui chatbots de atendimento ao cliente, terá uma supervisão regulatória leve;
- Alto risco — IA para recomendações de saúde é um exemplo — enfrentará supervisão regulatória pesada;
- Aplicações de risco inaceitável — o foco dos requisitos de conformidade deste mês — serão totalmente proibidas.
A lei, porém, abre exceções. Polícias podem usar reconhecimento facial em busca de vítimas de sequestro ou para prevenir ameaças iminentes, desde que autorizadas por governos.
Escolas e empresas também ganham passe livre para sistemas que inferem emoções com fins terapêuticos ou de segurança.
A ambiguidade preocupa. A Comissão Europeia prometeu diretrizes claras no início deste ano, sem especificar exatamente quando.
Sumroy também alerta que a o ato pode entrar em conflito com leis como a GDPR (General Data Protection Regulation), que estabelece regras para o processamento de dados pessoais; e DORA (Digital Operational Resilience Act), regulamento da UE que afeta o setor de serviços financeiros.
Em setembro, mais de 100 empresas, incluindo Google, Amazon e OpenAI, assinaram o EU AI Pact, comprometendo-se a adotar as regras antecipadamente.
Mas ausências chamaram a atenção: Meta, Apple e a francesa Mistral (crítica ferrenha da lei) ignoraram o acordo.
Nenhuma delas comentou publicamente o motivo. Especialistas, porém, duvidam que desafiariam abertamente o bloco.
A Mistral, que desenvolve modelos rivais ao ChatGPT, reclama que o AI Act sufoca a inovação. A UE rebate: a lei protege direitos sem brecar progresso.
A Europa já ditou padrões globais com o GDPR e agora, tenta repetir o feito na IA — mesmo que, para isso, precise multar gigantes. Resta saber quem pagará para ver.