Tech2 News Logo Dark Tech2 News Logo Light
Grupo de Ofertas
  • Notícias
  • Apps
  • Auto
  • Inteligência Artificial
  • Ciência
  • Celular
  • Games
  • Software
    • VPN
  • Apostas
Você está lendo: Deepfakes são usadas para criar falsos nudes de mulheres e crianças
Compartilhe
Font ResizerAa
Tech2Tech2
Pesquisar
  • Últimas Notícias
  • Apostas
  • Apps
  • Auto
  • Celular
  • Ciência
  • Computador
  • Curiosidades
  • Inteligência Artificial
  • Internet
  • Games
  • Software
    • VPN
  • Universo
Tech2 > Notícias > Deepfakes são usadas para criar falsos nudes de mulheres e crianças
Notícias

Deepfakes são usadas para criar falsos nudes de mulheres e crianças

Por Luciano Rodrigues
Última Atualização: 12/11/2024
Compartilhe
Deepfakes são usadas para criar falsos nudes de mulheres e crianças
Deepfakes são usadas para criar falsos nudes de mulheres e crianças - Imagem: Dall-E
Compartilhe

Ferramentas de Inteligência Artificial estão sendo usadas para criar deepfakes de pessoas – a grande maioria mulheres e até crianças – em situações de abuso sexual.

Um relatório da Safernet aponta que a IA contribuiu para um recorde de denúncias de abuso infantil online no Brasil em 2023, com 71.867 novas denúncias. Thiago Tavares, fundador da Safernet, alerta que a produção de material de abuso infantil com IA já está sendo documentada globalmente.

A situação é grave e tem gerado respostas internacionais.

Nos Estados Unidos, o FBI acusou recentemente um homem de criar mais de 10 mil imagens de abuso sexual infantil usando IA.

Bertram Lyons, presidente da Medex Forensics, explica que a autenticidade das imagens geradas por IA desafia o sistema judicial e os investigadores, aumentando a carga de trabalho das autoridades.

Em 2023, o Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC) dos EUA registrou 4.700 denúncias de exploração sexual infantil gerada por IA.

Em resposta, o presidente Joe Biden propôs um compromisso para que a indústria de tecnologia crie barreiras contra a disseminação de imagens de abuso sexual geradas por IA.

Além dos problemas de abuso infantil, a manipulação de imagens com IA também se expandiu para o mercado paralelo.

Canais no Telegram oferecem serviços para criar deepfakes e fakenudes, cobrando valores baixos por fotos e vídeos manipulados.

Esses serviços permitem que qualquer pessoa pague para ver outra pessoa nua em vídeos falsos, alimentando um mercado perigoso e antiético.

  • Leia também: Ferramentas de IA estão sendo usadas para criar músicas de ódio

Autoridades apontam os desafios para identificar deepfakes

A crescente disponibilidade de modelos e ferramentas de IA facilitou a produção e venda de deepfakes, colocando um desafio significativo para as autoridades e aumentando a necessidade de medidas regulatórias para proteger as vítimas desses crimes cibernéticos.

Em entrevista recente ao portal O Globo, o delegado Everson Contelli, relata um aumento nos casos de manipulação de imagens por IA no Brasil.

Segundo ele, esses crimes são complexos e caros de resolver, pois envolvem identificar a veracidade das imagens manipuladas.

“O custo para a resolução do crime cibernético é muito maior, tanto de tempo quanto de dinheiro. Essas ferramentas podem confundir a investigação, que precisa primeiro identificar se as imagens são verdadeiras.”

  • Leia também: Sugar Daddies no Brasil tem idade média de 35 anos, revela plataforma online

Leia Também

Data centers de IA no Brasil podem consumir energia de 16 milhões de casas
Character.AI lança feed social e entra na disputa por conteúdo gerado por IA
OpenAI anuncia Stargate Norway, seu primeiro data center de IA na Europa
AlphaEarth Foundations do Google revoluciona mapeamento global com IA e dados de satélite
ChatGPT não tem confidencialidade de terapeuta, alerta Sam Altman
Sobre:deepfake
Compartilhe:
Facebook Whatsapp Whatsapp Telegram Copiar Link
Luciano Rodrigues
PorLuciano Rodrigues
Siga:
Jornalista, assessor de comunicação, escritor e comunicador, com MBA em jornalismo digital e 12 anos de experiência, tendo passado também por alguns veículos no setor tech.

Mais Lidas

  • Quem Somos
  • Política Editorial
  • Política de Privacidade
  • Sitemap
  • Contato

Redes: 

© 2024 Tech2. Todos os direitos reservado

Welcome Back!

Sign in to your account

Username or Email Address
Password

Lost your password?