Pesquisadores dinamarqueses identificaram graves falhas no Instagram, expondo adolescentes vulneráveis a conteúdos perigosos. A plataforma, pertencente à Meta, não conseguiu remover publicações relacionadas à automutilação durante um estudo que durou um mês. Esse levantamento revelou a “extrema inadequação” da moderação do Instagram, colocando em risco jovens que já enfrentam desafios emocionais.
Os pesquisadores postaram 85 peças de conteúdo, incluindo imagens explícitas de sangue e lâminas de barbear. Nenhuma das publicações foi removida. Além disso, as contas criadas para o experimento conseguiram se conectar rapidamente a outras com conteúdos similares, ampliando o alcance de mensagens perigosas em pouco tempo.
Expansão de grupos do Instagram preocupa especialistas
A facilidade de formar redes dentro do Instagram levantou preocupações entre os responsáveis pelo estudo. Eles observaram que adolescentes vulneráveis podem ser rapidamente expostos a círculos que incentivam automutilação, agravando a gravidade do problema. Essa dinâmica torna o ambiente ainda mais perigoso, especialmente para quem já busca apoio emocional na plataforma.
Embora a Meta tenha introduzido ferramentas de proteção específicas para adolescentes, como o controle de mensagens diretas, a eficácia dessas medidas continua questionável. Em março, Lotte Rubæk, ex-funcionária da empresa, criticou publicamente a falta de comprometimento da Meta com a segurança dos usuários. Segundo ela, a empresa “fecha os olhos” para conteúdos de automutilação.
Moderadores e IA sob escrutínio
A Meta depende de inteligência artificial para moderar conteúdos, afirmando que 99% do material impróprio é removido automaticamente. No entanto, o estudo dinamarquês Digitalt Ansvar revelou que essa tecnologia falhou completamente em identificar e excluir os conteúdos postados. Revisores humanos também não intervieram, o que expôs falhas críticas nos processos de moderação.
Comparativamente, o TikTok enfrenta problemas semelhantes, como apontou o The Washington Post no ano passado. Vídeos violentos e explícitos aparecem regularmente na plataforma, demonstrando que redes sociais ainda precisam evoluir para oferecer um ambiente seguro para seus usuários mais jovens.
Especialistas destacam a urgência de soluções concretas. O foco deve ser a criação de sistemas mais robustos de detecção de conteúdos perigosos, combinando tecnologia eficiente e revisão humana para evitar tragédias entre adolescentes. A pressão pública para mudanças continua a crescer, exigindo respostas rápidas das gigantes da tecnologia.