- Gemini 2.5 Pro já está disponível no Google AI Studio.
- Modelo processa texto, áudio, imagem, vídeo e código.
- IA executa tarefas complexas com raciocínio passo a passo.
O Google apresentou o Gemini 2.5 Pro, uma atualização do seu modelo de inteligência artificial que promete melhor desempenho em tarefas de raciocínio, codificação e STEM.
Segundo a empresa, o novo modelo supera concorrentes como OpenAI, Anthropic, xAI e DeepSeek em benchmarks amplamente utilizados na indústria.
A versão atual já está disponível para testes no Google AI Studio e para assinantes do plano Gemini Advanced, acessível pelo menu suspenso de modelo no aplicativo. O modelo combina um novo modelo base com técnicas avançadas de pós-treinamento, oferecendo resultados mais consistentes e relevantes em cenários complexos.
Google aposta em raciocínio multimodal e contexto ampliado para o Gemini
Entre os principais diferenciais do Gemini 2.5 Pro está a capacidade multimodal nativa. Isso significa que a IA consegue interpretar texto, imagens estáticas, vídeos, áudios e até código, o que permite aplicações muito mais amplas em áreas como programação, design, engenharia e análise de dados.
Além disso, o Google também revelou que o modelo contará em breve com uma janela de contexto de 2 milhões de tokens. Isso vai permitir processar grandes volumes de informações em uma única interação.
Em uma postagem no X, o CEO do Google DeepMind, Demis Hassabis, afirmou que o Gemini 2.5 Pro é um modelo de última geração incrível. Além disso, ele destacou melhorias significativas no raciocínio multimodal e em áreas como codificação e ciências exatas.
De acordo com o Google, o Gemini agora se destaca por realizar raciocínios estruturados passo a passo, o que o torna mais eficaz ao lidar com prompts complexos. A empresa afirma que esse novo nível de processamento permite decisões mais precisas e respostas mais elaboradas, inclusive em cenários de múltiplas etapas.
Um vídeo de demonstração mostra o Gemini 2.5 Pro programando um videogame com base em apenas um prompt de entrada. Dessa forma, destaca a capacidade do modelo de transformar instruções abstratas em código funcional com mínima intervenção humana.