Google planeja sinalizar imagens geradas por IA na Pesquisa para combater deepfakes

Por Luciano Rodrigues
Google planeja sinalizar imagens geradas por IA na Pesquisa para combater deepfakes - Imagem: Dall-E

Nos próximos meses, o Google vai começar a implementar mudanças significativas na Pesquisa Google, Google Lens e no recurso Círculo para Pesquisar no Android. Essas plataformas passarão a identificar e sinalizar imagens que foram geradas ou editadas por inteligência artificial (IA).

O anúncio faz parte do esforço da empresa para combater a crescente onda de desinformação visual, especialmente com o aumento de deepfakes e outras formas de manipulação digital.

A nova funcionalidade do Google será baseada em metadados C2PA (Coalition for Content Provenance and Authenticity), que rastreiam o histórico de uma imagem, incluindo detalhes sobre o equipamento e o software utilizados em sua criação.

Empresas como Google, Microsoft, Adobe e Amazon estão por trás desse padrão, que foi desenvolvido para trazer mais transparência e autenticidade ao conteúdo digital.

Entretanto, a adoção do C2PA ainda não é amplamente difundida e apenas algumas ferramentas de IA generativa e câmeras, como as da Leica e Sony, utilizam esse padrão atualmente.

Além disso, há desafios técnicos para a adoção generalizada, já que os metadados podem ser removidos ou corrompidos, tornando a sinalização menos eficaz em alguns casos.

Combate à desinformação e deepfakes

Embora as mudanças sejam um passo positivo, elas não resolvem completamente o problema.

Muitos deepfakes e imagens manipuladas ainda circulam sem controle, e as ferramentas mais populares de geração de imagens por IA, como o Flux da xAI, não suportam metadados C2PA.

Pesquisas recentes revelam que a preocupação com deepfakes é crescente.

Um estudo estima que as perdas financeiras relacionadas a esses conteúdos devem aumentar significativamente, passando de US$ 12,3 bilhões em 2023 para US$ 40 bilhões até 2027.

A implementação do C2PA nas ferramentas do Google é uma tentativa de combater essa propagação, mas ainda há muito trabalho a ser feito para garantir que a identificação de imagens geradas por IA se torne um padrão global e acessível.

Além disso, também é preciso que os países avancem em leis que possam punir quem abusa do recurso, inclusive àqueles que criam imagens falsas sem consentimento.

Compartilhe:
Siga:
Jornalista, assessor de comunicação, escritor e comunicador, com MBA em jornalismo digital e 12 anos de experiência, tendo passado também por alguns veículos no setor tech.
Sair da versão mobile