Entra em vigor na União Europeia lei que multa sistemas de IA que apresentarem risco inaceitável

Por Luciano Rodrigues
Imagem: Dall-E
  • UE probiu sistemas de IA de “risco inaceitável” em 2 de fevereiro.
  • Multas podem chegar a R$ 210,76 milhões ou 7% do faturamento global das empresas.
  • Práticas banidas incluem pontuação social, reconhecimento facial em tempo real e inferência de emoções no trabalho.
  • Meta, Apple e startup francesa Mistral ignoraram pacto voluntário de adesão prévia.

A União Europeia (UE) deu o pontapé inicial para controlar os excessos da inteligência artificial.

Desde esse domingo (2), autoridades do bloco podem banir sistemas de IA considerados de “risco inaceitável” — como algoritmos que preveem crimes pela aparência ou inferem orientação sexual por biometria.

CONTINUA APÓS A PUBLICIDADE

A medida, parte do AI Act, aprovado em março de 2023, marca a primeira etapa de uma regulamentação que promete redefinir o jogo global da tecnologia.

Empresas flagradas usando IA para práticas proibidas enfrentarão multas de até R$ 210,76 milhões (€35 milhões) ou 7% do faturamento global — o que for maior.

Rob Sumroy, especialista em tecnologia do escritório britânico Slaughter and May, em uma declaração ao site TechCrunch, ressaltou:

Espera-se que as organizações estejam totalmente em conformidade até 2 de fevereiro, mas… o próximo grande prazo que as empresas precisam estar cientes é em agosto. Até lá, saberemos quem são as autoridades competentes, e as multas e disposições de execução entrarão em vigor.

Inteligência Artificial sob ataque?

O AI Act divide os riscos da IA em quatro níveis.

  • Risco mínimo (por exemplo, filtros de spam de e-mail) não enfrentará supervisão regulatória;
  • Risco limitado, que inclui chatbots de atendimento ao cliente, terá uma supervisão regulatória leve;
  • Alto risco — IA para recomendações de saúde é um exemplo — enfrentará supervisão regulatória pesada;
  • Aplicações de risco inaceitável — o foco dos requisitos de conformidade deste mês — serão totalmente proibidas.

A lei, porém, abre exceções. Polícias podem usar reconhecimento facial em busca de vítimas de sequestro ou para prevenir ameaças iminentes, desde que autorizadas por governos.

CONTINUA APÓS A PUBLICIDADE

Escolas e empresas também ganham passe livre para sistemas que inferem emoções com fins terapêuticos ou de segurança.

A ambiguidade preocupa. A Comissão Europeia prometeu diretrizes claras no início deste ano, sem especificar exatamente quando.

Sumroy também alerta que a o ato pode entrar em conflito com leis como a GDPR (General Data Protection Regulation), que estabelece regras para o processamento de dados pessoais; e DORA (Digital Operational Resilience Act), regulamento da UE que afeta o setor de serviços financeiros.

Em setembro, mais de 100 empresas, incluindo Google, Amazon e OpenAI, assinaram o EU AI Pact, comprometendo-se a adotar as regras antecipadamente.

CONTINUA APÓS A PUBLICIDADE

Mas ausências chamaram a atenção: Meta, Apple e a francesa Mistral (crítica ferrenha da lei) ignoraram o acordo.

Nenhuma delas comentou publicamente o motivo. Especialistas, porém, duvidam que desafiariam abertamente o bloco.

A Mistral, que desenvolve modelos rivais ao ChatGPT, reclama que o AI Act sufoca a inovação. A UE rebate: a lei protege direitos sem brecar progresso.

A Europa já ditou padrões globais com o GDPR e agora, tenta repetir o feito na IA — mesmo que, para isso, precise multar gigantes. Resta saber quem pagará para ver.

CONTINUA APÓS A PUBLICIDADE
Compartilhe:
Siga:
Jornalista, assessor de comunicação, escritor e comunicador, com MBA em jornalismo digital e 12 anos de experiência, tendo passado também por alguns veículos no setor tech.
Sair da versão mobile