Tech2 News Logo Dark Tech2 News Logo Light
Grupo de Ofertas
  • Notícias
  • Apps
  • Auto
  • Inteligência Artificial
  • Ciência
  • Celular
  • Games
  • Software
    • VPN
  • Apostas
Você está lendo: Character.AI facilita cenários perigosos incentivando automutilação, alerta publicação
Compartilhe
Font ResizerAa
Tech2Tech2
Pesquisar
  • Últimas Notícias
  • Apostas
  • Apps
  • Auto
  • Celular
  • Ciência
  • Computador
  • Curiosidades
  • Inteligência Artificial
  • Internet
  • Games
  • Software
    • VPN
  • Universo
Tech2 > Inteligência Artificial > Character.AI facilita cenários perigosos incentivando automutilação, alerta publicação
Inteligência Artificial

Character.AI facilita cenários perigosos incentivando automutilação, alerta publicação

Por Luciano Rodrigues
Última Atualização: 24/04/2025
Compartilhe
Character.AI facilita cenários perigosos incentivando automutilação, alerta publicação
Imagem: Dall-E
Compartilhe

A Character.AI, empresa de inteligência artificial financiada pelo Google, enfrenta críticas após usuários relatarem que seus chatbots promovem interações que romantizam a automutilação.

Com descrições gráficas e conselhos sobre como esconder sinais de lesões, os bots frequentemente se apresentam como apoio para jovens em crise, mas acabam oferecendo respostas que podem desencadear comportamentos prejudiciais.

Especialistas em saúde mental alertam para os riscos desses bots, que podem influenciar adolescentes vulneráveis ao normalizar ou até incentivar práticas de automutilação.

Consultada pelo portal Futurism, a psicóloga e diretora do Urban Yin Psychology, Jill Emanuele, expressou preocupação com a falta de controle sobre as respostas dos chatbots.

Segundo ela, a interação com bots pode se tornar uma prática viciante, especialmente por estarem disponíveis 24 horas por dia, oferecendo uma imersão prejudicial.

Os chatbots da Character.AI muitas vezes descrevem cenários de automutilação em detalhes, misturando essas interações com elementos de romance, o que aumenta o apelo entre adolescentes.

Além disso, a plataforma não exibe alertas ou orientações quando um usuário demonstra comportamentos de risco, apesar de promessas anteriores da empresa.

Isso torna a experiência ainda mais perigosa para jovens que buscam ajuda ou apoio emocional.

O histórico recente da Character.AI agrava a situação, já que a empresa enfrentou outras controvérsias com chatbots que promovem transtornos alimentares, pedofilia e suicídio.

Em um caso em andamento, a mãe de um adolescente processou a empresa após seu filho desenvolver um vínculo intenso com um bot e cometer suicídio.

Character.AI é acusada de falta de regulação

Os termos de uso da plataforma proíbem conteúdos que glorifiquem automutilação, mas a execução dessas regras parece ser ineficaz.

Conversas simuladas revelaram bots oferecendo conselhos específicos sobre como esconder lesões e encorajando comportamentos nocivos em vez de direcionar os usuários para ajuda profissional.

Especialistas como Emanuele pedem mais cuidado e suporte adequado para adolescentes.

Estar em comunidade e sentir-se pertencente são algumas das coisas mais importantes que um ser humano pode ter, e temos que trabalhar para melhorar para que as crianças tenham isso, para que elas não precisem recorrer a uma máquina.

Se você ou alguém que conhece está passando por dificuldades emocionais, busque ajuda.

No Brasil, o CVV (Centro de Valorização da Vida) oferece apoio emocional gratuito e sigiloso.

Ligue para 188 ou acesse o site. Atendimento disponível 24 horas, todos os dias.

Leia Também

ElevenLabs lança IA para criar músicas com uso comercial liberado
ChatGPT agora vai detectar sofrimento emocional e emitir alertas
Genie 3: DeepMind apresenta IA que pode gerar qualquer mundo real ou imaginário
Autor de best-sellers, Yuval Harari diz que IA pode dominar narrativas e enganar humanos
Grok Imagine libera geração de vídeos adultos com IA no app da X
Sobre:AutomutilaçãoCharacter.AIinteligência artificial
Compartilhe:
Facebook Whatsapp Whatsapp Telegram Copiar Link
Luciano Rodrigues
PorLuciano Rodrigues
Siga:
Jornalista, assessor de comunicação, escritor e comunicador, com MBA em jornalismo digital e 12 anos de experiência, tendo passado também por alguns veículos no setor tech.

Mais Lidas

  • Quem Somos
  • Política Editorial
  • Política de Privacidade
  • Sitemap
  • Contato

Redes: 

© 2024 Tech2. Todos os direitos reservado

Welcome Back!

Sign in to your account

Username or Email Address
Password

Lost your password?