- Gemini Live agora entende conteúdo da tela do smartphone.
- Assistente também analisa imagens da câmera em tempo real.
- Recurso chega primeiro aos assinantes do Google One AI Premium.
O Google começou a liberar novos recursos de inteligência artificial para o Gemini Live. Agora, o assistente pode ver o que aparece na tela ou na câmera do celular e responder às perguntas do usuário em tempo real.
Os recursos haviam sido anunciados no início deste mês e marcam a primeira grande implementação das tecnologias do Projeto Astra, demonstrado pela empresa em 2023.
Inicialmente, dois recursos estão sendo liberados. O primeiro é a capacidade do Gemini de ler o que está na tela do smartphone. O segundo permite que o assistente analise o feed da câmera ao vivo. A princípio, ambos estão disponíveis para assinantes do plano Google One AI Premium.
Em um vídeo postado no Reddit, um usuário relatou que o recurso já aparece em seu dispositivo Xiaomi. Ele demonstrou como o Gemini interpreta o conteúdo da tela e responde a perguntas sobre ele.
Além disso, o próprio Google confirmou a funcionalidade, por meio do porta-voz Alex Joseph, em declaração ao site The Verge.
Em outro vídeo, o Google também demonstrou o segundo recurso. Nele, uma pessoa mostra uma peça de cerâmica pela câmera do celular e pergunta qual cor de tinta deve usar. Em seguida, o Gemini interpreta a imagem em tempo real e sugere opções com base no contexto.
Gemini sai na frente dos concorrentes
Com isso, o Google sai na frente de concorrentes como a Amazon, que prepara o Alexa+; e a Apple, que ainda não lançou a versão atualizada da Siri, por exemplo. A Samsung, por sua vez, ainda utiliza o Bixby, enquanto o Gemini já é o assistente padrão nos smartphones Galaxy.
O avanço do Gemini reforça a estratégia do Google de integrar IA generativa ao uso cotidiano dos dispositivos. Ao permitir que o assistente entenda o ambiente visual do usuário, a empresa amplia o alcance da IA e antecipa um novo padrão de interação com smartphones