Nessa quinta-feira (6), o Google anunciou novas diretrizes para desenvolvedores que criam aplicativos de inteligência artificial (IA) distribuídos pelo Google Play, com o objetivo de reduzir a disseminação de conteúdo impróprio e proibido. A empresa exige que os aplicativos com recursos de IA impeçam a geração de conteúdo restrito, como material sexual, violência e outros tipos de conteúdo inadequado.
Além disso, deve ser oferecida uma maneira para os usuários sinalizarem qualquer conteúdo ofensivo que encontrarem. O Google também enfatiza que os desenvolvedores devem “testar rigorosamente” suas ferramentas e modelos de IA para garantir a segurança e a privacidade dos usuários.
As novas diretrizes também abordam a repressão a aplicativos cujos materiais de marketing promovem usos inadequados, como a criação de imagens de nudez não consensuais ou a remoção de roupas de pessoas.
Anúncios que afirmam que um aplicativo pode realizar essas ações podem resultar na proibição do aplicativo no Google Play, independentemente de sua real capacidade.
Essas diretrizes vêm em resposta a um aumento nos aplicativos de despir por IA, que se popularizaram nas redes sociais nos últimos meses. Um relatório de abril da 404 Media destacou que o Instagram exibia anúncios de aplicativos que alegavam usar IA para gerar imagens de nudez falsa.
Exemplos incluem aplicativos que se promoviam usando fotos de celebridades como Kim Kardashian com slogans como “Tire a roupa de qualquer garota de graça”.
Embora Apple e Google tenham removido esses aplicativos de suas lojas, o problema persiste.
Escolas nos Estados Unidos também enfrentam problemas com alunos que usam nus falsos gerados por IA para intimidar e assediar colegas e professores.
Em um caso recente, um deepfake racista de um diretor de escola levou a uma prisão em Baltimore.
- Leia também: Brasileiros pagam cerca de R$ 1.416 reais em assinaturas como Netflix, Spotify, entre outros
Diretrizes são resposta do Google ao aumento de Apps criminosos
O Google acredita que suas políticas ajudarão a impedir que aplicativos potencialmente prejudiciais entrem no Google Play.
A empresa aponta para sua Política de Conteúdo Gerado por IA, que define os requisitos para a aprovação de aplicativos. Os desenvolvedores devem garantir que seus aplicativos não permitam a geração de conteúdo restrito e ofereçam uma forma de os usuários denunciarem conteúdos ofensivos, além de monitorar e priorizar esse feedback, especialmente em aplicativos onde as interações dos usuários influenciam o conteúdo e a experiência.
Os desenvolvedores também estão proibidos de promover seus aplicativos de forma que viole as regras do Google Play.
Qualquer anúncio que sugira um uso inadequado pode resultar na remoção do aplicativo da loja.
Além disso, os desenvolvedores são responsáveis por proteger seus aplicativos contra solicitações que possam manipular os recursos de IA para criar conteúdo prejudicial.
O Google recomenda o uso de testes fechados para compartilhar versões iniciais dos aplicativos com usuários selecionados e obter feedback.
A empresa sugere que os desenvolvedores não apenas testem extensivamente antes do lançamento, mas também documentem esses testes, pois o Google pode solicitar revisões no futuro.