A Perplexity AI, uma startup que combina um mecanismo de busca com um modelo de linguagem avançado, tem estado no centro de uma polêmica crescente.
Isso porque a empresa, diferente do ChatGPT da OpenAI e do Claude da Anthropic, não treina seus próprios modelos de IA, mas utiliza modelos abertos ou comercialmente disponíveis para coletar informações da internet e gerar respostas detalhadas.
Em junho, a Perplexity AI foi acusada de práticas antiéticas pela Forbes, que relatou que a startup supostamente plagiou um de seus artigos de notícias em seu recurso beta, o Perplexity Pages.
Além disso, a Wired acusou a empresa de fazer scraping (que consiste em extrair dados de sites) ilícito de seu site, assim como de outros sob a empresa controladora Condé Nast.
A plataforma, que estava buscando levantar US$ 250 milhões em abril, nega qualquer irregularidade e afirma operar dentro dos limites das leis de direitos autorais de uso justo.
A situação é complexa, envolvendo nuances do Robots Exclusion Protocol (também chamado de robots.txt) e das leis de direitos autorais de uso justo.
O Robots Exclusion Protocol permite que sites indiquem se desejam ou não que seu conteúdo seja acessado por rastreadores da web. No entanto, a conformidade com esse protocolo não é obrigatória por lei.
Segundo a Wired, a Perplexity ignorou esse protocolo para acessar áreas restritas de sites, incluindo o seu próprio, e resumir conteúdos de URLs fornecidas por usuários, o que foi interpretado como scraping ilícito.
O chefe de negócios da Perplexity, Dmitry Shevelenko, defende que resumir uma URL não equivale a rastrear.
Segundo ele, o IP da Perplexity pode aparecer como visitante de um site proibido de robots.txt quando um usuário insere uma URL na consulta, alegando que isso não se qualifica como rastreamento, mas sim como resposta a uma solicitação direta do usuário.
Forbes e Wired insistem na na acusação de plágio da Perplexity AI
A Wired relatou que o chatbot da Perplexity produziu um texto que reproduziu de perto as conclusões de um artigo da Wired, inclusive com frases idênticas, enquanto a Forbes acusou a startup de plagiar sua reportagem sobre drones de combate com IA desenvolvidos pelo ex-CEO do Google, Eric Schmidt.
O CEO da Perplexity, Aravind Srinivas, prometeu citar fontes de forma mais destacada no futuro, mas a questão do uso justo permanece complexa.
Segundo a lei de direitos autorais dos EUA, é legal usar partes limitadas de uma obra para comentários, críticas, reportagens e relatórios acadêmicos.
Empresas de IA como a Perplexity argumentam que resumos de artigos estão dentro dos limites do uso justo, desde que não utilizem expressões completas do texto original.
Para se proteger das acusações, a empresa está em negociação para acordos de compartilhamento de receita de publicidade com editoras, visando incluir anúncios junto com respostas de consulta e dividir a receita com as publicações citadas.
No entanto, a prática de resumir conteúdos de maneira que substitua a leitura dos artigos originais pode ameaçar a sustentabilidade financeira dos editores de notícias.
Se a tendência continuar, a viabilidade dos modelos de negócios baseados em anúncios pode ser comprometida, levando a uma redução na quantidade de conteúdo disponível para scraping e, potencialmente, a um ciclo de feedback de dados sintéticos e tendenciosos.
A controvérsia em torno da Perplexity AI destaca a necessidade urgente de clareza legal e ética no uso de tecnologias de IA generativa, especialmente no que diz respeito à proteção de direitos autorais e ao uso justo de conteúdos online.