O chatbot Gemini, desenvolvido pelo Google, agora pode armazenar informações sobre preferências pessoais, trabalho e aspectos da vida de seus usuários.
O recurso de memória, disponível inicialmente para assinantes do plano Google One AI Premium, de R$ 115,50 (US$ 20) por mês (R$ 96,99 no Brasil, embora não esteja claro se o recurso já está disponível no país), visa oferecer interações mais personalizadas, mas também desperta alertas sobre possíveis falhas de segurança.
Os usuários podem instruir o Gemini a lembrar informações específicas, como preferências alimentares, habilidades de programação ou estilos de comunicação, o que possibilita que o chatbot forneça respostas mais alinhadas às necessidades de cada pessoa.
Por exemplo, ao pedir recomendações de restaurantes, o bot pode sugerir opções adaptadas aos gostos do usuário previamente informados.
O recurso de memória está disponível apenas na versão web do Gemini e ainda não chegou aos aplicativos para iOS e Android.
A interface apresenta exemplos de memórias úteis, como “Use linguagem simples e evite jargões” ou “Inclua custo diário ao planejar viagens”.
Segundo o Google, o armazenamento de memórias pode ser desativado a qualquer momento, e os dados permanecerão até que sejam excluídos manualmente.
Vulnerabilidades do Gemini e desafios de segurança
Embora essa funcionalidade amplie as possibilidades de uso do chatbot, ela não está isenta de riscos.
Pesquisadores de segurança alertam que ferramentas de memória podem se tornar alvos de ataques cibernéticos se não forem projetadas com fortes barreiras de proteção.
No início deste ano, um pesquisador demonstrou como hackers poderiam inserir memórias falsas em um chatbot para acessar informações confidenciais de forma contínua.
Esse tipo de falha levanta dúvidas sobre a segurança de dados armazenados em sistemas de IA generativa.
Embora o Google não tenha detalhado todas as medidas de segurança implementadas no Gemini, especialistas recomendam cautela ao compartilhar informações pessoais com ferramentas de inteligência artificial.
Além disso, a exclusão manual de dados e a possibilidade de desativar o recurso não eliminam completamente os riscos.
O lançamento do recurso de memória no Gemini reflete o avanço contínuo das plataformas de IA em oferecer experiências personalizadas.
No entanto, ele reforça a necessidade de equilibrar inovação com medidas robustas para proteger os usuários contra potenciais violações de segurança.