Deepfakes são usadas para criar falsos nudes de mulheres e crianças

Por Luciano Rodrigues
Deepfakes são usadas para criar falsos nudes de mulheres e crianças - Imagem: Dall-E

Ferramentas de Inteligência Artificial estão sendo usadas para criar deepfakes de pessoas – a grande maioria mulheres e até crianças – em situações de abuso sexual.

Um relatório da Safernet aponta que a IA contribuiu para um recorde de denúncias de abuso infantil online no Brasil em 2023, com 71.867 novas denúncias. Thiago Tavares, fundador da Safernet, alerta que a produção de material de abuso infantil com IA já está sendo documentada globalmente.

A situação é grave e tem gerado respostas internacionais.

Nos Estados Unidos, o FBI acusou recentemente um homem de criar mais de 10 mil imagens de abuso sexual infantil usando IA.

Bertram Lyons, presidente da Medex Forensics, explica que a autenticidade das imagens geradas por IA desafia o sistema judicial e os investigadores, aumentando a carga de trabalho das autoridades.

Em 2023, o Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC) dos EUA registrou 4.700 denúncias de exploração sexual infantil gerada por IA.

Em resposta, o presidente Joe Biden propôs um compromisso para que a indústria de tecnologia crie barreiras contra a disseminação de imagens de abuso sexual geradas por IA.

Além dos problemas de abuso infantil, a manipulação de imagens com IA também se expandiu para o mercado paralelo.

Canais no Telegram oferecem serviços para criar deepfakes e fakenudes, cobrando valores baixos por fotos e vídeos manipulados.

Esses serviços permitem que qualquer pessoa pague para ver outra pessoa nua em vídeos falsos, alimentando um mercado perigoso e antiético.

Autoridades apontam os desafios para identificar deepfakes

A crescente disponibilidade de modelos e ferramentas de IA facilitou a produção e venda de deepfakes, colocando um desafio significativo para as autoridades e aumentando a necessidade de medidas regulatórias para proteger as vítimas desses crimes cibernéticos.

Em entrevista recente ao portal O Globo, o delegado Everson Contelli, relata um aumento nos casos de manipulação de imagens por IA no Brasil.

Segundo ele, esses crimes são complexos e caros de resolver, pois envolvem identificar a veracidade das imagens manipuladas.

“O custo para a resolução do crime cibernético é muito maior, tanto de tempo quanto de dinheiro. Essas ferramentas podem confundir a investigação, que precisa primeiro identificar se as imagens são verdadeiras.”

Sobre:
Compartilhe:
Siga:
Jornalista, assessor de comunicação, escritor e comunicador, com MBA em jornalismo digital e 12 anos de experiência, tendo passado também por alguns veículos no setor tech.
Sair da versão mobile