- Geradores de vídeo com IA facilitam criação de deepfakes não consensuais.
- Empresas ignoram riscos e mantêm apps problemáticos em suas lojas.
- Usuários modificam modelos de IA abertos para criar conteúdos explícitos.
Uma investigação revelou que diversos geradores de vídeo com IA, especialmente desenvolvidos por empresas chinesas, estão sendo amplamente utilizados para produzir conteúdo íntimo não consensual. Essas ferramentas não possuem barreiras eficazes para impedir o abuso e permitem que qualquer pessoa crie vídeos explícitos de terceiros com apenas uma imagem e um prompt de texto.
O 404 Media realizou a apuração das informações e divulgada nesta semana a reportagem.
O Pixverse, criado pela AIsphere, de Pequim, é um dos aplicativos mais utilizados para gerar deepfakes não consensuais de celebridades. Basta fornecer uma foto para criar um vídeo onde a pessoa parece estar se despindo. Esse tipo de conteúdo também é explorado em outros apps, como Hailuo, KlingAI e Pika, também são explorados para esse tipo de conteúdo. Mas nem só chineses. O Pika, por exemplo, desenvolvido nos EUA, permite até mesmo gerar vídeos explícitos de celebridades praticando atos sexuais.
Além da falta de restrições sobre os prompts aceitos, esses geradores oferecem o recurso imagem para vídeo, permitindo animar fotos manipuladas por IA. Assim, o método facilita a criação de vídeos altamente realistas e incentiva a disseminação dessas ferramentas em comunidades que promovem conteúdos íntimos falsos. Além disso, usuários relatam que, caso um prompt seja bloqueado, basta tentar novamente até que a IA produza o vídeo desejado.
Grandes empresas falham em conter conteúdo não consensual
Apesar do crescente número de deepfakes gerados por IA, Apple e Google ainda permitem o acesso a esses aplicativos em suas lojas oficiais. O Pixverse, KlingAI e Hailuo, inclusive, podem ser baixados diretamente na App Store e na Google Play Store, sem qualquer controle rígido sobre seu uso. Quando questionadas, no entanto, as empresas não ofereceram soluções concretas para limitar esse tipo de conteúdo.
Além dos geradores comerciais, modelos de IA de código aberto também estão sendo modificados para criar deepfakes explícitos. Comunidades online de pornografia não consensual adotaram rapidamente o HunyuanVideo, da Tencent, e o Wan 2.1, da Alibaba. Usuários compartilham versões modificadas desses modelos em fóruns e repositórios de IA, ampliando o alcance do problema.
Diante desse cenário, especialistas pedem mais regulamentação. Nos EUA, por exemplo, o senador democrata Dick Durbin propôs o DEFIANCE Act, um projeto de lei que busca responsabilizar empresas e indivíduos que criam ou compartilham deepfakes sem consentimento. Além disso, Durbin cobrou explicações de Mark Zuckerberg, Apple e Google sobre a permanência desses aplicativos em suas plataformas.