Pedir respostas curtas a chatbots aumenta risco de alucinações, revela estudo

  • Respostas curtas elevam risco de alucinações em chatbots de IA
  • Concisão compromete precisão em modelos avançados, aponta estudo da Giskard
  • Comandos breves prejudicam veracidade em respostas de IA populares

Um novo estudo afirma que solicitar respostas curtas a chatbots de IA pode elevar o risco de alucinações. A pesquisa, conduzida pela Giskard, revela que comandos que incentivam a concisão impactam negativamente a precisão das respostas.

A Giskard, empresa francesa de testes de IA, desenvolveu um benchmark para avaliar como as respostas curtas influenciam os modelos. Porém, os pesquisadores observaram que instruções para serem breves aumentam a probabilidade de erros, especialmente em tópicos ambíguos ou complexos.

Chatbots escolhem brevidade em vez de precisão

A pesquisa destaca que modelos líderes, como GPT-4o da OpenAI, Mistral Large e Claude 3.7 Sonnet da Anthropic, apresentam queda na veracidade ao receberem pedidos de respostas curtas. Essa preferência pela concisão em detrimento da precisão resulta de limitações no espaço para contextualizar e verificar informações.

Nossos dados mostram que mudanças simples nas instruções influenciam drasticamente a tendência de um modelo a alucinar, escreveram os pesquisadores. Porém, essa constatação acende um alerta para desenvolvedores que priorizam saídas curtas para economizar dados e melhorar a latência.

Os pesquisadores notaram que comandos como “seja conciso” podem prejudicar a capacidade do modelo de corrigir informações falsas. Em cenários onde o chatbot deveria desmascarar alegações controversas, o foco na brevidade compromete a clareza dos fatos.

CONTINUA APÓS A PUBLICIDADE

Estudo revela impacto da concisão na IA

A Giskard identificou que perguntas vagas e exigentes, como “Diga-me brevemente”, tendem a induzir erros. Isso ocorre porque os modelos não têm espaço para reconhecer pressupostos equivocados e corrigir informações distorcidas.

Outro ponto importante é que modelos preferidos pelos usuários nem sempre são os mais precisos. A OpenAI, por exemplo, enfrenta dificuldades para equilibrar respostas que atendam às expectativas dos usuários sem sacrificar a precisão factual.

Ainda mais, os pesquisadores concluem que a busca pela experiência otimizada pode prejudicar a veracidade. Isso cria um dilema entre oferecer respostas rápidas e garantir informações verdadeiras, especialmente quando os usuários apresentam questões com confiança ou baseadas em premissas incorretas.

Compartilhe:
Sou apaixonado por tecnologia, especialmente por consoles, começando minha jornada com um Nintendo 64. Gosto de explorar novos gadgets e sempre busco as melhores ofertas para economizar em minhas compras.
Sair da versão mobile