s
- IA “alucina” casos falsos, criando problemas para advogados.
- Uso de IA em processos legais exige verificação rigorosa.
- Casos recentes mostram riscos do uso irresponsável da IA.
Um caso inusitado envolvendo advogados, tecnologia e informações inventadas chamou a atenção nos tribunais dos EUA. Um escritório de advocacia admitiu ter citado casos inexistentes em documentos judiciais após a inteligência artificial usada na pesquisa “alucinar” referências que não existem.
O incidente ocorreu em um processo contra o Walmart e a Jetson Electronic Bikes, Inc., que envolve um hoverboard cuja bateria teria provocado um incêndio que feriu gravemente uma família.
A juíza distrital de Wyoming, Kelly Rankin, exigiu explicações do escritório, após observar que oito dos casos citados não eram identificáveis no sistema de arquivos do tribunal. Os advogados responderam que sua plataforma interna de IA inventou as referências ao ajudar na elaboração de uma moção in limine (solicitação pré-julgamento para excluir certas provas durante o julgamento).
O escritório se manifestou e disse que:
Este assunto vem com grande constrangimento e gerou discussão sobre treinamento, implementação e uso futuro da inteligência artificial em nossa empresa.
Uso de IA em casos por advogados têm criado problemas
Esse não é o primeiro caso em que o uso de IA em processos judiciais leva advogados a problemas. Em 2022, após se ferir por um carrinho de serviço durante um voo, um homem processou a Avianca Airlines. Os advogados dele citaram casos inexistentes gerados pelo ChatGPT e, quando questionados, tentaram defender os pareceres falsos. Como resultado, o tribunal multou-os em R$ 28,68 mil (US$ 5 mil) por fabricar informações.
Outro caso ocorreu em 2024, quando o ex-advogado Michael Cohen forneceu ao seu próprio advogado citações falsas geradas pelo Google Bard. Embora não tenham sido multados, o juiz chamou o erro de “embaraçoso”.
O uso de IA em escritórios de advocacia vem crescendo para pesquisa e análise de documentos, mas os exemplos recentes mostram que a falta de verificação cuidadosa pode levar a problemas graves. Além disso, a situação destaca a importância do julgamento humano na interpretação de informações fornecidas por ferramentas tecnológicas, já que alucinações não são incomuns. No ano passado, por exemplo, uma alucinação da IA da Meta negava o atentado sofrido por Donald Trump.