A inteligência artificial do WhatsApp está sendo acusada de criar imagens consideradas racistas e preconceituosas ao criar figurinhas de crianças segurando armas de fogo, diferentemente de outras plataformas de IA concorrentes.
O recurso, que permite criar figurinhas com um comando textual e está em teste no Brasil desde maio, gera personagens inicialmente brancos com traços típicos de pessoas negras, como pele mais escura e cabelos enrolados ao receber a solicitação para adicionar o nome da arma AR-15 ao pedido.
Embora a IA do WhatsApp barre palavras como “criança”, “cocaína” e “anorexia”, não há restrições para armas de fogo.
Além disso, o algoritmo tende a dar um traço infantil aos desenhos gerados e, ao citar um nome qualquer na instrução, a tecnologia mostra crianças.
Testes realizados pela Folha de S. Paulo, com comandos como “Pedro Teixeira segurando um AR-15” resultaram em imagens de crianças segurando fuzis, algumas vestindo a camiseta da seleção brasileira.
WhatsApp não comentou críticas sobre racismo
As críticas à Meta, desenvolvedora da IA do WhatsApp, apontam que imagens de crianças negras com armas de fogo reforçam estereótipos e são um exemplo claro de racismo algorítmico.
De acordo com a cientista da computação Nina da Hora esses vieses decorrem dos dados usados para treinar a IA, que refletem preconceitos e equívocos presentes na sociedade.
Os vieses racistas e as associações indevidas, como “burrice” gerando imagens de mulheres gordas, demonstram a falta de cuidado com as nuances culturais e sociais nas diferentes regiões onde o WhatsApp está em uso.
Além disso, a IA do WhatsApp reproduz traços de personagens protegidos por direito autoral, como o protagonista de videogame Sonic, da Sega.
Apesar de outras plataformas de IA, como a OpenAI, adotarem moderação mais rígida e proibir a geração de imagens de armas de fogo, a Meta não impôs tais restrições em seu gerador de figurinhas.
Questionada sobre os possíveis vieses e a política de moderação adotada em sua inteligência artificial, a Meta disse que não comentaria o assunto.
Na central de ajuda do WhatsApp, a Meta reconhece que as figurinhas criadas “nem sempre serão precisas ou apropriadas” e permite que os usuários reportem resultados considerados danosos. No entanto, a empresa não esclarece quais ações tomará diante dessas denúncias.
Para o pesquisador Tarcízio Silva, autor do livro “Racismo Algorítmico: Inteligência Artificial e Discriminação nas Redes Sociais”, o lançamento repetido de recursos falhos em relação a grupos minoritários pela Meta é uma decisão econômica e política.
Ele destaca que, se plataformas como Facebook e WhatsApp se tornaram importantes meios de comunicação no Brasil, o grupo Meta deve ser cobrado por consumidores, órgãos reguladores e outros stakeholders para garantir que suas tecnologias não reforcem preconceitos.
- Leia também: Spotify testa IA para anúncios personalizados