-
- Polícia usa Overwatch, ferramenta de IA para interagir com suspeitos e ativistas online.
- Por enquanto, recurso ainda não resultou em prisões confirmadas.
- Especialistas alertam para risco de abusos e vigilância excessiva.
Departamentos de polícia nos Estados Unidos estão pagando centenas de milhares de dólares por uma ferramenta, chamada Overwatch. Trata-se de uma tecnologia secreta e não comprovada que utiliza personas geradas por inteligência artificial para interagir com suspeitos, ativistas políticos e até manifestantes universitários.
Desenvolvida pela empresa Massive Blue, sediada em Nova York, a Overwatch já está em operação em regiões próximas à fronteira com o México.
A plataforma promete criar perfis falsos realistas, que conversam com suspeitos via mensagens de texto e redes sociais, usando IA generativa para produzir imagens, diálogos e até provas visuais forjadas. Segundo documentos obtidos pela 404 Media por meio da Lei de Acesso à Informação, o software atua em áreas como tráfico de pessoas, drogas, armas e “radicalização política”.
Os contratos envolvem agências como o Gabinete do Xerife do Condado de Pinal, no Arizona, que já investiu R$2,11 milhões (US$ 360 mil) na tecnologia. E também o Condado de Yuma, que optou por não renovar após um período de testes. Apesar dos investimentos, nenhuma prisão foi registrada até o momento como resultado direto da Overwatch.
Overwatch monitora redes sociais e cria diálogos com possíveis alvos
A Massive Blue fornece até 50 personas de IA, categorizadas em perfis como “manifestante universitário”, “persona de tráfico de crianças”, “recrutador de protestos”, “acompanhante” e “radical político”. Assim, essas identidades atuam online em canais como Telegram, Signal, Discord e SMS, com o objetivo de coletar evidências e gerar pistas investigativas.
Em uma das demonstrações, a empresa apresentou uma persona adolescente chamada Jason, usada para simular conversas com adultos suspeitos de exploração sexual infantil. Outra persona, chamada Clip, se passa por um “cafetão de IA” e interage com trabalhadoras do sexo em diálogos criados para parecerem naturais.
Críticos como Dave Maass, da Electronic Frontier Foundation, alertam para os riscos da prática:
O problema com todas essas coisas é que são problemas mal definidos. Qual problema eles estão realmente tentando resolver? Uma versão da persona da IA é um acompanhante. Não estou preocupado com acompanhantes. Não estou preocupado com manifestantes universitários. Então, tipo, em que ela é eficaz, violando os direitos da Primeira Emenda dos manifestantes?
A falta de transparência sobre como os alvos são identificados agrava as preocupações sobre liberdades civis e privacidade.
Apesar da justificativa de combater crimes graves, documentos mostram que autoridades evitaram explicar publicamente o funcionamento da ferramenta, mesmo durante votações oficiais. A 404 Media também identificou falas vagas de executivos da empresa e a ausência de resultados concretos apresentados às autoridades.
A adoção de IA pelas polícias, assim como outros setores, não é inédita e pode ser benéfica. Recentemente, por exemplo, a Polícia Civil do Estado de São Paulo adotou uma tecnologia visando evitar fraudes com identidades.