A Anthropic revelou, nessa terça-feira (22), uma nova versão do modelo Claude 3.5 Sonnet, que traz funcionalidades inovadoras para o campo da automação de tarefas em desktops.
A novidade, que inclui a capacidade de interação com qualquer aplicativo de desktop por meio da API “Computer Use”, coloca o modelo de IA em posição de imitar ações humanas.
Com isso, o Claude 3.5 Sonnet pode ver o que está acontecendo na tela de um computador, com base em capturas de tela, executar ações como pressionamentos de teclas e cliques de mouse, com a possibilidade de navegar e executar comandos em diferentes softwares.
Embora o conceito de automação de tarefas em PCs não seja novo, a abordagem da Anthropic promete ir além do que já existe no mercado, como as soluções oferecidas por empresas de RPA e outras plataformas de automação.
O novo modelo não apenas emula ações humanas no desktop, mas também pode navegar pela web, permitindo interações com sites e aplicativos diretamente da interface do computador.
Essa capacidade de usar qualquer site e aplicativo abre portas para aplicações em uma ampla gama de setores.
Empresas como a Replit e Canva já estão explorando maneiras de integrar o Claude 3.5 Sonnet em seus processos.
No caso da Replit, a ferramenta foi utilizada para criar um “verificador autônomo” que avalia aplicativos durante o desenvolvimento. Enquanto isso, o Canva está testando o modelo para suporte em processos de design e edição.
Apesar das inovações, a Anthropic admite que o novo modelo ainda apresenta desafios.
A IA encontra dificuldades em tarefas simples, como rolar a página e dar zoom, além de não conseguir lidar com algumas ações de curta duração, como notificações rápidas.
Mesmo assim, a empresa está otimista com o potencial do Claude 3.5 Sonnet, sugerindo que os desenvolvedores iniciem testes com tarefas de menor risco para avaliar sua eficácia.
Preocupações com segurança no Claude 3.5 Sonnet
Embora a Anthropic esteja empolgada com o lançamento, ela também reconhece os riscos potenciais associados a esse novo nível de automação.
Modelos como o Claude 3.5 Sonnet têm potencial para serem explorados por agentes maliciosos, especialmente em cenários que envolvem vulnerabilidades de segurança.
Para mitigar esses riscos, a Anthropic garante que tomou medidas de segurança rigorosas, como a retenção de capturas de tela por 30 dias e a utilização de classificadores que limitam o acesso a ações de alto risco, como interações com sites governamentais.
Além disso, a empresa está em contato com instituições como o US AI Safety Institute e o UK Safety Institute para garantir que seus modelos sejam rigorosamente testados e protegidos contra possíveis abusos.
A Anthropic promete continuar ajustando suas medidas de segurança e incentiva os desenvolvedores a utilizarem o modelo de forma responsável, especialmente em tarefas sensíveis.
A empresa também planeja o lançamento do Claude 3.5 Haiku nas próximas semanas, com o objetivo de oferecer uma opção mais acessível e eficiente para os clientes que desejam utilizar IA em suas operações diárias.