- Google suspende 39 milhões de contas de anúncios com ajuda da IA.
- Modelos de linguagem bloqueiam fraudes antes de anúncios irem ao ar.
- Empresa reduz 90% dos golpes com deepfakes em anúncios online.
O Google apresentou seu Relatório de Segurança de Anúncios de 2024, revelando um avanço expressivo no combate a conteúdos maliciosos em sua plataforma. A empresa anunciou que utilizou mais de 50 modelos de linguagem de grande escala (LLMs) atualizados para detectar fraudes, resultando na suspensão de 39,2 milhões de contas de anúncios só nos EUA — mais que o triplo do número registrado em 2023.
De acordo com o Google, 97% das ações contra abusos publicitários em 2024 envolveram esses modelos de IA. As ferramentas exigem menos dados para tomar decisões precisas, permitindo reações rápidas contra novas táticas de golpe. A empresa afirmou que a maioria das contas foi detectada antes mesmo de exibir um único anúncio.
Entre os motivos mais comuns para as suspensões estão uso indevido de dados, alegações médicas falsas, violação de marca registrada e abusos da rede de anúncios, por exemplo. Além disso, a nova estratégia também evitou a disseminação de bilhões de anúncios perigosos.
Google teve mais rigor contra conteúdo impróprio
A companhia relatou que removeu 1,8 bilhão de anúncios maliciosos nos EUA e 5,1 bilhões em todo o mundo. Apesar de ser uma leve queda em relação aos 5,5 bilhões de 2023, o Google afirma que o aumento nas suspensões de contas reduziu a necessidade de agir após a publicação dos anúncios.
Para combater abusos mais sofisticados, o Google criou uma equipe de 100 especialistas em 2023 para atualizar sua política de deturpação. Essa mudança permitiu identificar e bloquear 700 mil contas responsáveis por golpes com deepfakes, provocando uma redução de 90% nesse tipo de golpe.
A empresa também bloqueou 1,3 bilhão de páginas de veicularem anúncios, principalmente por conteúdo sexual, discurso perigoso e malware. Apesar da eficiência dos modelos, o Google reconhece que os LLMs ainda podem gerar falsos positivos. No entanto, a empresa garante que ainda mantém revisões humanas no processo de moderação.
Mesmo com as limitações, a aplicação dos modelos de linguagem no combate a fraudes se mostrou promissora e representa um avanço técnico relevante para proteger consumidores e manter a integridade do sistema de anúncios.