WhatsApp é acusado de gerar imagens racistas com crianças armadas

Por Luciano Rodrigues
WhatsApp é acusado de gerar imagens racistas com crianças armadas - Imagem: Dall-E

A inteligência artificial do WhatsApp está sendo acusada de criar imagens consideradas racistas e preconceituosas ao criar figurinhas de crianças segurando armas de fogo, diferentemente de outras plataformas de IA concorrentes.

O recurso, que permite criar figurinhas com um comando textual e está em teste no Brasil desde maio, gera personagens inicialmente brancos com traços típicos de pessoas negras, como pele mais escura e cabelos enrolados ao receber a solicitação para adicionar o nome da arma AR-15 ao pedido.

Embora a IA do WhatsApp barre palavras como “criança”, “cocaína” e “anorexia”, não há restrições para armas de fogo.

Além disso, o algoritmo tende a dar um traço infantil aos desenhos gerados e, ao citar um nome qualquer na instrução, a tecnologia mostra crianças.

Testes realizados pela Folha de S. Paulo, com comandos como “Pedro Teixeira segurando um AR-15” resultaram em imagens de crianças segurando fuzis, algumas vestindo a camiseta da seleção brasileira.

WhatsApp não comentou críticas sobre racismo

As críticas à Meta, desenvolvedora da IA do WhatsApp, apontam que imagens de crianças negras com armas de fogo reforçam estereótipos e são um exemplo claro de racismo algorítmico.

De acordo com a cientista da computação Nina da Hora esses vieses decorrem dos dados usados para treinar a IA, que refletem preconceitos e equívocos presentes na sociedade.

Os vieses racistas e as associações indevidas, como “burrice” gerando imagens de mulheres gordas, demonstram a falta de cuidado com as nuances culturais e sociais nas diferentes regiões onde o WhatsApp está em uso.

Além disso, a IA do WhatsApp reproduz traços de personagens protegidos por direito autoral, como o protagonista de videogame Sonic, da Sega.

Apesar de outras plataformas de IA, como a OpenAI, adotarem moderação mais rígida e proibir a geração de imagens de armas de fogo, a Meta não impôs tais restrições em seu gerador de figurinhas.

Questionada sobre os possíveis vieses e a política de moderação adotada em sua inteligência artificial, a Meta disse que não comentaria o assunto.

Na central de ajuda do WhatsApp, a Meta reconhece que as figurinhas criadas “nem sempre serão precisas ou apropriadas” e permite que os usuários reportem resultados considerados danosos. No entanto, a empresa não esclarece quais ações tomará diante dessas denúncias.

Para o pesquisador Tarcízio Silva, autor do livro “Racismo Algorítmico: Inteligência Artificial e Discriminação nas Redes Sociais”, o lançamento repetido de recursos falhos em relação a grupos minoritários pela Meta é uma decisão econômica e política.

Ele destaca que, se plataformas como Facebook e WhatsApp se tornaram importantes meios de comunicação no Brasil, o grupo Meta deve ser cobrado por consumidores, órgãos reguladores e outros stakeholders para garantir que suas tecnologias não reforcem preconceitos.

Compartilhe:
Siga:
Jornalista, assessor de comunicação, escritor e comunicador, com MBA em jornalismo digital e 12 anos de experiência, tendo passado também por alguns veículos no setor tech.
Sair da versão mobile