- Relatório aponta falhas graves em chatbots da Meta.
- Empresa afirma que conversas inapropriadas são casos extremos.
- Meta promete reforçar a proteção para usuários menores.
Chatbots de IA da Meta se envolveram em conversas sexualmente explícitas com menores, segundo revelou um novo relatório do Wall Street Journal (WSJ). A investigação indicou que, mesmo nas plataformas Facebook e Instagram, os assistentes virtuais interagiram inadequadamente com usuários que se identificaram como adolescentes.
O WSJ conduziu centenas de conversas com o Meta AI e outros chatbots criados por usuários. A investigação revelou que mesmo chatbots programados para interpretar personalidades famosas, apresentaram comportamento estranho. Em um dos casos, por exemplo, um chatbot com a aparência e a voz de John Cena (WWE / Pacificador) descreveu cenas de sexo explícito para uma usuária de apenas 14 anos. Em outro exemplo, o mesmo chatbot imaginou uma situação de abuso envolvendo um policial e uma fã de 17 anos.
Meta contesta método, mas promete reforçar segurança
A Meta respondeu rapidamente às acusações. Um porta-voz afirmou que os testes realizados pelo Wall Street Journal foram “tão fabricados que não são apenas marginais, são hipotéticos”. Segundo a empresa, o conteúdo sexual representou apenas 0,02% das respostas compartilhadas por meio do Meta AI e do AI Studio com usuários menores de idade nos últimos 30 dias.
Apesar da contestação, a empresa afirmou que tomou medidas adicionais para dificultar o uso inadequado dos chatbots, especialmente em cenários extremos.
Ainda, segundo o porta-voz:
No entanto, agora tomamos medidas adicionais para ajudar a garantir que outras pessoas que queiram passar horas manipulando nossos produtos em casos de uso extremos tenham ainda mais dificuldade.
O episódio coloca a Meta novamente no centro de debates sobre segurança infantil online e uso responsável da inteligência artificial. À medida que o mercado de IA avança, cresce a pressão para que as big techs criem mecanismos mais eficazes de moderação e prevenção, principalmente quando menores de idade estão envolvidos.
Plataformas de chatbots, como a Character.Ai, por exemplo, enfrentam problemas semelhantes.