Pesquisa revela que um a cada dez jovens usam IA para criar nudes falsos de colegas

Por Luciano Rodrigues
Pesquisa revela que um a cada dez jovens usam IA para criar nudes falsos de colegas - Imagem: Dall-E

Uma pesquisa recente realizada pela organização sem fins lucrativos Thorn trouxe à tona um problema alarmante: um em cada dez menores na América do Norte relatou que amigos ou colegas de classe usaram ferramentas de inteligência artificial para gerar nudes não consensuais de outros jovens.

Esse estudo, conduzido entre novembro e dezembro de 2023, é uma das primeiras tentativas de medir a extensão dessa prática preocupante, que está ganhando espaço nas escolas e causando sérios danos às vítimas. O levantamento, que entrevistou 1.040 jovens de 9 a 17 anos, revelou que o uso de IA para criar “nudes deepfake” tem se tornado uma prática comum entre menores.

Essas ferramentas, que podem manipular imagens para fazer com que pareçam explicitamente nuas, são frequentemente usadas para intimidar, humilhar e assediar colegas de classe.

Outro dado significativo da pesquisa é que 10% dos entrevistados preferiram não comentar sobre o uso dessas ferramentas, indicando que o problema pode ser ainda mais amplo do que se imagina.

Importante apontar também que, neste ano, o avanço das IAs foi grande, o que deve aumentar ainda mais essa alarmante estimativa atualmente.

O uso dessas tecnologias está resultando em situações devastadoras em diversas comunidades escolares.

Em um incidente no estado de Washington, alunos foram investigados pela polícia por utilizarem um “aplicativo de despir” para criar imagens nuas de professores e colegas.

Casos semelhantes têm ocorrido em outras regiões, com alunos de escolas fundamentais e secundárias sendo detidos por envolvimento em tais práticas.

Embora muitos possam ver essas ações como brincadeiras de mau gosto, os efeitos sobre as vítimas são reais e duradouros.

A Thorn enfatiza que o bullying e o assédio facilitados pela IA não podem ser subestimados, e que é urgente uma resposta adequada das escolas, famílias e empresas de tecnologia para prevenir esses abusos.

O estudo também destaca a necessidade de maior regulamentação e educação em torno do uso de tecnologias de IA.

A criação e disseminação de imagens íntimas não consensuais são crimes graves, e a facilidade com que menores estão acessando e usando essas ferramentas levanta questões sérias sobre a segurança digital e a responsabilidade das plataformas que oferecem essas tecnologias.

Jovem de Sorocaba foi denunciado por supostamente produzir nudes fakes de colegas de escola

Recentemente, um adolescente de uma escola particular em Sorocaba (SP) foi denunciado por mães de alunas e está sendo investigado pela Polícia Civil por supostamente criar e divulgar imagens íntimas falsas de colegas utilizando IA.

De acordo com as denúncias, feitas por pelo menos dez mães, o jovem teria manipulado fotos das alunas para simular nudez e, em seguida, compartilhado essas imagens com outros estudantes.

A prática, considerada criminosa, gerou grande preocupação e revolta entre as famílias e a comunidade escolar.

O caso está sendo tratado como um ato infracional grave pela Delegacia da Infância e da Juventude, que conduz as investigações. O jovem poderá responder na justiça pelas acusações, e a escola onde ele estudava confirmou que está colaborando com as autoridades para apurar o ocorrido.

 

Compartilhe:
Siga:
Jornalista, assessor de comunicação, escritor e comunicador, com MBA em jornalismo digital e 12 anos de experiência, tendo passado também por alguns veículos no setor tech.
Sair da versão mobile