O Google anunciou o PaliGemma 2, um modelo avançado de inteligência artificial capaz de gerar legendas detalhadas para imagens e identificar emoções em fotografias.
Segundo a empresa, a tecnologia vai além da simples descrição de objetos, oferecendo uma narrativa completa que inclui ações e estados emocionais das pessoas retratadas.
O lançamento foi recebido com entusiasmo por alguns especialistas e críticas severas por outros, especialmente no que diz respeito às suas aplicações éticas.
A capacidade de interpretar emoções não está disponível imediatamente. O modelo requer ajustes específicos para operar dessa forma, o que aumenta os debates sobre o uso responsável da tecnologia.
Sandra Wachter, professora de ética de dados do Oxford Internet Institute, disse ao portal TechCrunch que a ideia de “ler” emoções com base em expressões faciais é problemática.
Isso é muito preocupante para mim. Acho problemático presumir que podemos “ler” as emoções das pessoas. É como pedir conselho a uma Bola Mágica 8.
PaliGemma 2 levanta questionamentos éticos e sociais
O PaliGemma 2 utiliza aprendizado profundo para analisar imagens e criar descrições detalhadas de cenas, incluindo as emoções aparentes dos indivíduos.
Apesar da inovação, o método enfrenta críticas por basear-se em teorias questionadas, como a hipótese de Paul Ekman, que sugere a existência de seis emoções universais.
Estudos recentes contestam essa ideia, indicando que as emoções variam de acordo com contextos culturais e pessoais, o que dificulta sua detecção precisa.
Mike Cook, pesquisador da Queen Mary University, falando ao TechCrunch, apontou os desafios técnicos dessa abordagem.
A detecção de emoções não é possível no caso geral, porque as pessoas vivenciam as emoções de maneiras complexas. É claro que achamos que podemos dizer o que outras pessoas estão sentindo olhando para elas, e muitas pessoas ao longo dos anos também tentaram, como agências de espionagem ou empresas de marketing. Tenho certeza de que é absolutamente possível detectar alguns significantes genéricos em alguns casos, mas não é algo que possamos “resolver” completamente.
Além disso, trabalhos como o estudo do MIT de 2020 revelaram que sistemas de análise facial frequentemente atribuem emoções negativas a rostos de pessoas negras, levantando preocupações sobre preconceitos incorporados à tecnologia.
A possibilidade de abusos na aplicação da PaliGemma 2 também preocupa reguladores e especialistas.
O AI Act, principal legislação europeia sobre inteligência artificial, já proíbe o uso de detectores de emoções em escolas e ambientes de trabalho, mas permite sua aplicação em outros setores, como segurança pública.
A principal crítica reside no potencial de discriminação e uso indevido, especialmente em áreas como recrutamento, vigilância e controle de fronteiras.
Apesar das críticas, o Google afirma que o PaliGemma 2 passou por extensos testes para reduzir vieses e garantir segurança. A empresa utilizou benchmarks como o FairFace para avaliar a eficácia do modelo, mas especialistas questionam a abrangência dessas métricas.
Heidy Khlaaf, cientista-chefe do AI Now Institute, organização sem fins lucrativos que estuda as implicações sociais da inteligência artificial, comentou:
Interpretar emoções é uma questão bastante subjetiva que se estende além do uso de recursos visuais e está fortemente inserida em um contexto pessoal e cultural. Deixando a IA de lado, a pesquisa mostrou que não podemos inferir emoções apenas a partir de características faciais.
Com o PaliGemma 2 já disponível em plataformas como Hugging Face, o debate sobre inovação responsável na IA ganha novos contornos.