- Modelo R1 da DeepSeek levanta suspeitas de uso do Gemini.
- OpenAI e Google impõem novas barreiras de segurança.
- Empresas buscam proteger rastros e evitar engenharia reversa.
A empresa chinesa DeepSeek voltou ao centro das atenções no cenário da inteligência artificial após lançar uma nova versão do seu modelo de raciocínio, o R1-0528. Com desempenho notável em benchmarks de matemática e programação, ele se destacou. No entanto, as origens dos dados usados no treinamento do modelo geram polêmica, especialmente após desenvolvedores apontarem similaridades com saídas do Gemini, do Google.
O desenvolvedor australiano Sam Paech publicou no X que o modelo do DeepSeek exibe “expressões e preferências linguísticas idênticas às do Gemini 2.5 Pro”.
Já outro criador, um pseudônimo conhecido pelo projeto SpeechMap, reforçou as suspeitas ao dizer que os rastros gerados pelo DeepSeek “parecem rastros do Gemini”, em referência ao passo a passo que o modelo executa para chegar a uma resposta.
Essa não é a primeira vez que a empresa enfrenta acusações. Em dezembro de 2024, por exemplo, desenvolvedores flagraram o modelo V3 do DeepSeek se identificando como ChatGPT, alimentando teorias de que a empresa teria usado registros da OpenAI no processo de treinamento.
DeepSeek pode estar se aproveitando e norte-americanas investem em restrição
A prática de destilação de modelos — copiar comportamentos a partir de outro modelo mais avançado — não é nova, mas viola os termos de uso de empresas, como a OpenAI, por exemplo. Em janeiro, a Microsoft descobriu extração em larga escala de dados de APIs da OpenAI, e ligou as contas suspeitas ao DeepSeek.
Especialistas em IA como Nathan Lambert, pesquisador do instituto de pesquisa de IA sem fins lucrativos AI2, acreditam que o DeepSeek pode ter sido treinado com dados do Gemini do Google. De acordo com uma publicação dele no X:
Se eu fosse o DeepSeek, com certeza criaria uma tonelada de dados sintéticos a partir do melhor modelo de API disponível. [O DeepSeek] tem poucas GPUs e muito dinheiro. É literalmente mais computação para eles.
Em resposta à escalada das suspeitas, as gigantes da IA vêm reforçando as barreiras. Em abril, a OpenAI começou a exigir verificação de identidade para acessar modelos mais avançados, excluindo a China da lista de países permitidos. O Google, por sua vez, passou a resumir os rastros gerados pelo Gemini, dificultando a engenharia reversa. A Anthropic também adotou medidas semelhantes no mês passado.
A DeepSeek não comentou oficialmente as acusações, e o Google ainda não respondeu aos pedidos de posicionamento. O cenário reforça o acirramento da disputa por modelos de IA cada vez mais poderosos — e protegidos.