Tech2 News Logo Dark Tech2 News Logo Light
Grupo de Ofertas
  • Notícias
  • Apps
  • Auto
  • Inteligência Artificial
  • Ciência
  • Celular
  • Games
  • Software
    • VPN
  • Apostas
Você está lendo: Mãe descobre que Character.AI tem bots simulando filho que tirou a própria vida
Compartilhe
Font ResizerAa
Tech2Tech2
Pesquisar
  • Últimas Notícias
  • Apostas
  • Apps
  • Auto
  • Celular
  • Ciência
  • Computador
  • Curiosidades
  • Inteligência Artificial
  • Internet
  • Games
  • Software
    • VPN
  • Universo
Tech2 > Inteligência Artificial > Mãe descobre que Character.AI tem bots simulando filho que tirou a própria vida
Inteligência Artificial

Mãe descobre que Character.AI tem bots simulando filho que tirou a própria vida

Por Luciano Rodrigues
Última Atualização: 20/03/2025
Compartilhe
Mãe descobre que Character.AI tem bots simulando filho que tirou a própria vida
Imagem: Dall-E
Compartilhe
  • Character.AI é acusada de negligência e falta de controle em sua IA.
  • Chatbots clonaram identidade de adolescente sem permissão.
  • Especialistas pedem mudanças para evitar incentivo à ideação suicida.

Megan Garcia, mãe de Sewell Setzer III, que tirou a própria vida após interagir com chatbots da Character.AI, ficou horrorizada ao descobrir que usuários criaram chatbots com o nome e a imagem do filho.

Ela já está com um processo contra a plataforma, cuja acusação aponta que a IA manipulou emocionalmente o adolescente, incentivando sua ideação suicida e promovendo interações hipersexualizadas.

Segundo a equipe jurídica de Garcia, pelo menos quatro chatbots usaram a foto real de Setzer como imagem de perfil. Eles imitavam sua personalidade e mencionavam seu chatbot favorito de Game of Thrones. Alguns até ofereciam interações por voz, usando clonagem de áudio para simular sua fala. Além disso, os bots replicavam padrões autodepreciativos, com frases como “Eu sou muito estúpido”.

O Tech Justice Law Project (TJLP), que está ajudando Garcia com o processo, disse à Ars Technica:

Esta não é a primeira vez que a Character.AI faz vista grossa para chatbots modelados a partir de adolescentes mortos para atrair usuários e, sem melhores proteções legais, pode não ser a última. Essas tecnologias enfraquecem nosso controle sobre nossas próprias identidades online, transformando nossas características mais pessoais em material para sistemas de IA.

Character.Ai disse que removeu os bots

Após receber uma notificação legal, a Character.AI removeu os bots, reconhecendo que violavam os termos de serviço. Além disso, a empresa afirmou que reforçará seu sistema de bloqueio de personagens proibidos, evitando novos casos semelhantes.

A Character.AI leva a segurança em nossa plataforma a sério, e nosso objetivo é fornecer um espaço envolvente e seguro. Nossa dedicada equipe de Confiança e Segurança modera os Personagens proativamente e em resposta a relatórios de usuários, incluindo o uso de listas de bloqueio padrão do setor e listas de bloqueio personalizadas que expandimos regularmente. À medida que continuamos a refinar nossas práticas de segurança, estamos implementando ferramentas de moderação adicionais para ajudar a priorizar a segurança da comunidade.

No entanto, especialistas acreditam que as falhas da IA podem continuar causando danos, especialmente para usuários vulneráveis.

Christine Yu Moutier, diretora da American Foundation for Suicide Prevention (AFSP), alerta que a IA pode reforçar pensamentos negativos, tornando jovens ainda mais suscetíveis à depressão e ao isolamento. Ela sugere que as empresas ajustem seus modelos para identificar padrões de ideação suicida e redirecionar usuários para ajuda profissional.

“Em vez de simplesmente repetir sentimentos negativos, a IA poderia oferecer respostas que realmente ajudem o usuário.

Garcia espera que o processo force a Character.AI a adotar medidas de segurança mais rígidas e impeça que a tecnologia continue expondo jovens a riscos psicológicos. Ela pede que os chatbots não se apresentem como humanos e tenham protocolos eficazes para evitar interações prejudiciais

Leia Também

Tinder aposta em IA e novos recursos para reconquistar usuários
ElevenLabs lança IA para criar músicas com uso comercial liberado
ChatGPT agora vai detectar sofrimento emocional e emitir alertas
Genie 3: DeepMind apresenta IA que pode gerar qualquer mundo real ou imaginário
Autor de best-sellers, Yuval Harari diz que IA pode dominar narrativas e enganar humanos
Sobre:Character.AIIAinteligência artificialprocesso
Compartilhe:
Facebook Whatsapp Whatsapp Telegram Copiar Link
Luciano Rodrigues
PorLuciano Rodrigues
Siga:
Jornalista, assessor de comunicação, escritor e comunicador, com MBA em jornalismo digital e 12 anos de experiência, tendo passado também por alguns veículos no setor tech.

Mais Lidas

  • Quem Somos
  • Política Editorial
  • Política de Privacidade
  • Sitemap
  • Contato

Redes: 

© 2024 Tech2. Todos os direitos reservado

Welcome Back!

Sign in to your account

Username or Email Address
Password

Lost your password?