Meta interrompe planos de treinamento de IA com dados de usuários europeus

Por Luciano Rodrigues
Meta interrompe planos de treinamento de IA com dados de usuários europeus - Imagem: Dall-E

A Meta confirmou que interromperá os planos de treinar seus sistemas de inteligência artificial (IA) usando dados de seus usuários na União Europeia e no Reino Unido.

A decisão segue a resistência da Comissão Irlandesa de Proteção de Dados (DPC) e do Gabinete do Comissário de Informação (ICO) do Reino Unido, que levantaram preocupações sobre a privacidade dos dados.

Em comunicado, a DPC saudou a decisão da Meta de interromper os seus planos de treinar o seu grande modelo de linguagem utilizando conteúdo público partilhado por adultos no Facebook e Instagram em toda a UE/EEE.

Esta decisão seguiu um intenso diálogo entre a DPC e a Meta, e a DPC, em cooperação com outras autoridades de proteção de dados da UE, continuará a colaborar com a Meta nesta questão.

Meta recua

Embora a Meta já utilize conteúdo gerado por usuários para treinar sua IA em mercados como os EUA, as rigorosas regulamentações de proteção de dados da Europa, conhecidas como GDPR, têm criado obstáculos para a empresa, assim como outras que buscam melhorar seus sistemas de IA.

A Meta começou a notificar os usuários no mês passado sobre uma mudança em sua política de privacidade, que permitiria o uso de conteúdo público do Facebook e Instagram para treinar sua IA.

Essas mudanças deveriam entrar em vigor em 26 de junho, mas foram recebidas com resistência por organizações ativistas de privacidade, como a NOYB, que registrou 11 reclamações junto aos países da UE.

A Meta baseava-se na disposição do GDPR chamada “interesses legítimos” para afirmar que suas ações estavam em conformidade com os regulamentos.

No entanto, essa abordagem foi contestada por reguladores e ativistas, com usuários tendo que preencher um formulário de objeção, justificando por que não queriam que seus dados fossem usados.

Em resposta à solicitação da DPC e do ICO, a Meta decidiu suspender seus planos. Em uma postagem no blog, Stefano Fratta, diretor de engajamento global para política de privacidade da Meta, expressou desapontamento com a decisão.

“Este é um retrocesso para a inovação europeia, a concorrência no desenvolvimento da IA e mais atrasos na disponibilização dos benefícios da IA às pessoas na Europa”, disse.

Stephen Almond, diretor executivo de risco regulatório da ICO, enfatizou a importância da confiança pública na privacidade dos dados, afirmando que continuará monitorando os desenvolvedores de IA para garantir a proteção dos direitos de informação dos usuários no Reino Unido.

Compartilhe:
Siga:
Jornalista, assessor de comunicação, escritor e comunicador, com MBA em jornalismo digital e 12 anos de experiência, tendo passado também por alguns veículos no setor tech.
Sair da versão mobile