Pornografia feita com inteligência artificial está causando problemas na população

Por Cássio Gusson
Pornografia feita com inteligência artificial está causando problemas na população. Foto: Dall-e

A pornografia criada com inteligência artificial (IA) está causando sérios problemas na população. Ferramentas de IA generativa tornaram assustadoramente fácil criar deepfakes pornográficos de qualquer pessoa. Segundo um relatório de 2023 da Home Security Heroes, empresa que revisa serviços de proteção contra roubo de identidade, é possível criar um vídeo pornográfico de 60 segundos usando uma única imagem de rosto clara em menos de 25 minutos, sem custo algum.

Em janeiro, o mundo se chocou quando imagens deepfake explícitas de Taylor Swift circularam nas redes sociais, com uma das imagens alcançando 47 milhões de visualizações antes de ser removida. Não são apenas celebridades como Taylor Swift e estrelas do K-pop que são afetadas, mas também pessoas comuns, longe dos holofotes. O relatório de 2023 revelou que 99% das vítimas são mulheres ou meninas.

Nadia Lee, fundadora da startup australiana That’sMyFace, destacou a urgência de acelerar o desenvolvimento de tecnologias de segurança na mesma proporção das tecnologias de IA.

“Se a tecnologia de segurança não acompanhar o ritmo do desenvolvimento da IA, estamos condenados”, afirma Lee.

A questão dos deepfakes pornográficos é complexa e exige uma abordagem robusta e multifacetada. Susanna Gibson, que fundou a organização sem fins lucrativos MyOwn após sua própria experiência traumática com deepfakes, está na vanguarda desta batalha.

“O problema é que cada estado possui leis diferentes, criando um mosaico legislativo, onde algumas leis são significativamente melhores que outras”, explica Gibson.

Gibson conseguiu uma vitória importante quando o governador da Virgínia assinou uma lei em abril de 2023, expandindo a legislação contra “revenge porn” para incluir mais tipos de imagens. Embora esta seja apenas uma pequena conquista, ela representa um passo na direção certa para proteger as pessoas contra abusos de imagem.

Inteligência artificial

Breeze Liu, outra vítima de deepfakes, fundou a Alecto AI, uma startup dedicada a combater o uso indevido de imagens através de reconhecimento facial. Liu enfatiza a necessidade de parcerias com plataformas de mídia social para permitir a remoção imediata de conteúdos ofensivos.

“Se você não pode remover o conteúdo, está apenas mostrando às pessoas imagens extremamente perturbadoras e criando mais estresse”, diz Liu.

Enquanto mulheres esperam por ações regulamentares mais eficazes, serviços oferecidos por empresas como Alecto AI e That’sMyFace podem preencher lacunas temporárias. No entanto, a situação evoca a metáfora dos apitos de estupro: é útil ter uma ferramenta para pedir ajuda em caso de ataque, mas seria muito melhor se a sociedade prevenisse esses ataques desde o início.

Compartilhe:
Siga:
Jornalista especializado em tecnologia, com atuação de mais de 10 anos no setor tech público e privado, tendo realizado a cobertura de diversos eventos, premiações a anúncios.
Sair da versão mobile