- Nova política do YouTube permite até 50% de violação nas postagens.
- Plataforma amplia exceção para conteúdo educativo e jornalístico.
- Críticos agora devem consultar gerentes antes de excluir vídeos.
O YouTube flexibilizou a moderação e agora mantém no ar vídeos que tenham até 50% de violação. Por exemplo, vídeo contendo desinformação médica, discurso de ódio, ou ataques políticos podem continuar na plataforma, se forem considerados de interesse público.
De acordo com o The New York Times, a plataforma alterou suas diretrizes internas em dezembro de 2024, mas só agora vieram à tona os detalhes do treinamento oferecido aos revisores.
O novo material instrui os moderadores a manterem no ar conteúdos com até 50% de violação, desde que abordem temas como eleições, gênero, sexualidade, imigração ou ideologias políticas. A mudança amplia uma exceção antiga já aplicada a materiais educativos, jornalísticos, científicos ou artísticos (EDSA), especialmente em contextos como eleições presidenciais.
Em declaração aoThe Verge, Nicole Bell, porta-voz da empresa, afirmou:
Atualizamos regularmente nossas Diretrizes da Comunidade para nos adaptarmos ao conteúdo que vemos no YouTube. Essa prática nos permite evitar, por exemplo, que um podcast de notícias com horas de duração seja removido por exibir um pequeno trecho de violência.
Mudança não é só no YouTube e reflete cenário político e pressões sobre big techs
O YouTube endureceu suas regras durante a pandemia e as eleições de 2020, especialmente contra fake news sobre vacinas e fraudes eleitorais. Mas, a partir de 2023, a empresa afrouxou parte dessas diretrizes, ampliando o alcance do que pode ser considerado conteúdo tolerável.
Ainda de acordo com o The New York Times, moderadores receberam exemplos reais de vídeos mantidos no ar mesmo com violações. Um deles trazia desinformação sobre vacinas promovida por Robert F. Kennedy Jr., enquanto outro usava calúnias transfóbicas ao citar indicados para o gabinete de Donald Trump. Em ambos os casos, a equipe do YouTube decidiu que o valor de manter o debate público superava os riscos de dano.
As mudanças ocorrem em meio a pressões crescentes do ex-presidente Trump contra as big techs e a um ambiente político que favorece maior liberdade de expressão. Outras empresas, como a Meta, também promoveram mudanças na moderação. Em paralelo, o Google — proprietário do YouTube — enfrenta processos antitruste nos EUA, que ameaçam a estrutura de seus serviços.