Tech2 News Logo Dark Tech2 News Logo Light
Grupo de Ofertas
  • Notícias
  • Apps
  • Auto
  • Inteligência Artificial
  • Ciência
  • Celular
  • Games
  • Software
    • VPN
  • Apostas
Você está lendo: WhatsApp é acusado de gerar imagens racistas com crianças armadas
Compartilhe
Font ResizerAa
Tech2Tech2
Pesquisar
  • Últimas Notícias
  • Apostas
  • Apps
  • Auto
  • Celular
  • Ciência
  • Computador
  • Curiosidades
  • Inteligência Artificial
  • Internet
  • Games
  • Software
    • VPN
  • Universo
Tech2 > Inteligência Artificial > WhatsApp é acusado de gerar imagens racistas com crianças armadas
Inteligência Artificial

WhatsApp é acusado de gerar imagens racistas com crianças armadas

Por Luciano Rodrigues
Última Atualização: 12/11/2024
Compartilhe
WhatsApp é acusado de gerar imagens racistas com crianças armadas
WhatsApp é acusado de gerar imagens racistas com crianças armadas - Imagem: Dall-E
Compartilhe

A inteligência artificial do WhatsApp está sendo acusada de criar imagens consideradas racistas e preconceituosas ao criar figurinhas de crianças segurando armas de fogo, diferentemente de outras plataformas de IA concorrentes.

O recurso, que permite criar figurinhas com um comando textual e está em teste no Brasil desde maio, gera personagens inicialmente brancos com traços típicos de pessoas negras, como pele mais escura e cabelos enrolados ao receber a solicitação para adicionar o nome da arma AR-15 ao pedido.

Embora a IA do WhatsApp barre palavras como “criança”, “cocaína” e “anorexia”, não há restrições para armas de fogo.

Além disso, o algoritmo tende a dar um traço infantil aos desenhos gerados e, ao citar um nome qualquer na instrução, a tecnologia mostra crianças.

Testes realizados pela Folha de S. Paulo, com comandos como “Pedro Teixeira segurando um AR-15” resultaram em imagens de crianças segurando fuzis, algumas vestindo a camiseta da seleção brasileira.

  • Leia também: Videochamadas no WhatsApp recebem suporte para 32 pessoas e mais recursos

WhatsApp não comentou críticas sobre racismo

As críticas à Meta, desenvolvedora da IA do WhatsApp, apontam que imagens de crianças negras com armas de fogo reforçam estereótipos e são um exemplo claro de racismo algorítmico.

De acordo com a cientista da computação Nina da Hora esses vieses decorrem dos dados usados para treinar a IA, que refletem preconceitos e equívocos presentes na sociedade.

Os vieses racistas e as associações indevidas, como “burrice” gerando imagens de mulheres gordas, demonstram a falta de cuidado com as nuances culturais e sociais nas diferentes regiões onde o WhatsApp está em uso.

Além disso, a IA do WhatsApp reproduz traços de personagens protegidos por direito autoral, como o protagonista de videogame Sonic, da Sega.

Apesar de outras plataformas de IA, como a OpenAI, adotarem moderação mais rígida e proibir a geração de imagens de armas de fogo, a Meta não impôs tais restrições em seu gerador de figurinhas.

Questionada sobre os possíveis vieses e a política de moderação adotada em sua inteligência artificial, a Meta disse que não comentaria o assunto.

Na central de ajuda do WhatsApp, a Meta reconhece que as figurinhas criadas “nem sempre serão precisas ou apropriadas” e permite que os usuários reportem resultados considerados danosos. No entanto, a empresa não esclarece quais ações tomará diante dessas denúncias.

Para o pesquisador Tarcízio Silva, autor do livro “Racismo Algorítmico: Inteligência Artificial e Discriminação nas Redes Sociais”, o lançamento repetido de recursos falhos em relação a grupos minoritários pela Meta é uma decisão econômica e política.

Ele destaca que, se plataformas como Facebook e WhatsApp se tornaram importantes meios de comunicação no Brasil, o grupo Meta deve ser cobrado por consumidores, órgãos reguladores e outros stakeholders para garantir que suas tecnologias não reforcem preconceitos.

  • Leia também: Spotify testa IA para anúncios personalizados

Leia Também

ElevenLabs lança IA para criar músicas com uso comercial liberado
WhatsApp bloqueia 6,8 milhões de contas ligadas a golpes globais
ChatGPT agora vai detectar sofrimento emocional e emitir alertas
Genie 3: DeepMind apresenta IA que pode gerar qualquer mundo real ou imaginário
Autor de best-sellers, Yuval Harari diz que IA pode dominar narrativas e enganar humanos
Sobre:inteligência artificialracismoWhatsApp
Compartilhe:
Facebook Whatsapp Whatsapp Telegram Copiar Link
Luciano Rodrigues
PorLuciano Rodrigues
Siga:
Jornalista, assessor de comunicação, escritor e comunicador, com MBA em jornalismo digital e 12 anos de experiência, tendo passado também por alguns veículos no setor tech.

Mais Lidas

  • Quem Somos
  • Política Editorial
  • Política de Privacidade
  • Sitemap
  • Contato

Redes: 

© 2024 Tech2. Todos os direitos reservado

Welcome Back!

Sign in to your account

Username or Email Address
Password

Lost your password?