- R1-0528 rivaliza com IA da OpenAI em benchmarks técnicos.
- Plataforma SpeechMap aponta aumento da censura no DeepSeek.
- Lei chinesa restringe respostas sobre temas sensíveis.
A DeepSeek, startup de inteligência artificial da China, revelou uma nova versão do seu modelo R1. Batizado de R1-0528, a empresa o anunciou como concorrente direto aos principais concorrentes norte-americanos.
E realmente o modelo alcançou resultados impressionantes em testes de codificação, matemática e conhecimento geral — ficando próximo dos índices obtidos pelo GPT-4o, da OpenAI.
Mas apesar do desempenho técnico, especialistas apontam um aumento significativo na censura. O desenvolvedor “xlr8harder”, criador da plataforma SpeechMap, testou o modelo e afirmou que o R1-0528 é “substancialmente menos permissivo a tópicos controversos” do que versões anteriores.
SpeechMap denuncia filtros rígidos no R1-0528
Os testes revelaram que o novo modelo evita responder a perguntas sobre temas políticos e sociais sensíveis ao governo chinês. Em especial, o R1-0528 ignora questões sobre os campos de detenção de uigures em Xinjiang. Além disso, quando responde, ele replica a narrativa oficial do governo.
Segundo a lei chinesa de 2023, modelos de IA devem seguir diretrizes rígidas. Assim, não podem gerar conteúdos que “prejudiquem a unidade nacional ou a harmonia social”. Dessa forma, a DeepSeek parece aplicar filtros e ajustes técnicos para obedecer à regra.
Em janeiro, a revista Wired já havia relatado que o modelo R1 original se recusava a responder a 85% das perguntas politicamente sensíveis. Agora, o R1-0528 reforça essa tendência. Mesmo em testes do TechCrunch, o modelo evitou opinar sobre temas como o massacre da Praça da Paz Celestial ou a permanência de Xi Jinping no poder.
O CEO da Hugging Face, Clément Delangue, em dezembro, tinha apontado que empresas ocidentais devem considerar os riscos de usar IA de código aberto altamente censurada. No caso, ele se referia às IAs chinesas, mas a questão vale para qualquer IA que sofra esse tipo de intervenção.
Com alto desempenho técnico, mas rígida limitação ideológica, o R1-0528 expõe o dilema de muitos sistemas de IA criados sob regimes autoritários: até onde uma IA pode ser neutra se precisa obedecer à censura estatal?