Tech2 News Logo Dark Tech2 News Logo Light
Grupo de Ofertas
  • Notícias
  • Apps
  • Auto
  • Inteligência Artificial
  • Ciência
  • Celular
  • Games
  • Software
    • VPN
  • Apostas
Você está lendo: Pedir respostas curtas a chatbots aumenta risco de alucinações, revela estudo
Compartilhe
Font ResizerAa
Tech2Tech2
Pesquisar
  • Últimas Notícias
  • Apostas
  • Apps
  • Auto
  • Celular
  • Ciência
  • Computador
  • Curiosidades
  • Inteligência Artificial
  • Internet
  • Games
  • Software
    • VPN
  • Universo
Tech2 > Inteligência Artificial > Pedir respostas curtas a chatbots aumenta risco de alucinações, revela estudo
Inteligência Artificial

Pedir respostas curtas a chatbots aumenta risco de alucinações, revela estudo

Por Michael Henrique
Última Atualização: 08/05/2025
Compartilhe
Pedir respostas curtas a chatbots aumenta risco de alucinações, revela estudo
Compartilhe
  • Respostas curtas elevam risco de alucinações em chatbots de IA
  • Concisão compromete precisão em modelos avançados, aponta estudo da Giskard
  • Comandos breves prejudicam veracidade em respostas de IA populares

Um novo estudo afirma que solicitar respostas curtas a chatbots de IA pode elevar o risco de alucinações. A pesquisa, conduzida pela Giskard, revela que comandos que incentivam a concisão impactam negativamente a precisão das respostas.

A Giskard, empresa francesa de testes de IA, desenvolveu um benchmark para avaliar como as respostas curtas influenciam os modelos. Porém, os pesquisadores observaram que instruções para serem breves aumentam a probabilidade de erros, especialmente em tópicos ambíguos ou complexos.

Chatbots escolhem brevidade em vez de precisão

A pesquisa destaca que modelos líderes, como GPT-4o da OpenAI, Mistral Large e Claude 3.7 Sonnet da Anthropic, apresentam queda na veracidade ao receberem pedidos de respostas curtas. Essa preferência pela concisão em detrimento da precisão resulta de limitações no espaço para contextualizar e verificar informações.

Nossos dados mostram que mudanças simples nas instruções influenciam drasticamente a tendência de um modelo a alucinar, escreveram os pesquisadores. Porém, essa constatação acende um alerta para desenvolvedores que priorizam saídas curtas para economizar dados e melhorar a latência.

Os pesquisadores notaram que comandos como “seja conciso” podem prejudicar a capacidade do modelo de corrigir informações falsas. Em cenários onde o chatbot deveria desmascarar alegações controversas, o foco na brevidade compromete a clareza dos fatos.

Estudo revela impacto da concisão na IA

A Giskard identificou que perguntas vagas e exigentes, como “Diga-me brevemente”, tendem a induzir erros. Isso ocorre porque os modelos não têm espaço para reconhecer pressupostos equivocados e corrigir informações distorcidas.

Outro ponto importante é que modelos preferidos pelos usuários nem sempre são os mais precisos. A OpenAI, por exemplo, enfrenta dificuldades para equilibrar respostas que atendam às expectativas dos usuários sem sacrificar a precisão factual.

Ainda mais, os pesquisadores concluem que a busca pela experiência otimizada pode prejudicar a veracidade. Isso cria um dilema entre oferecer respostas rápidas e garantir informações verdadeiras, especialmente quando os usuários apresentam questões com confiança ou baseadas em premissas incorretas.

Leia Também

Tinder aposta em IA e novos recursos para reconquistar usuários
ElevenLabs lança IA para criar músicas com uso comercial liberado
ChatGPT agora vai detectar sofrimento emocional e emitir alertas
Genie 3: DeepMind apresenta IA que pode gerar qualquer mundo real ou imaginário
Autor de best-sellers, Yuval Harari diz que IA pode dominar narrativas e enganar humanos
Sobre:AlucinaçõesChatbotsIA
Compartilhe:
Facebook Whatsapp Whatsapp Telegram Copiar Link
Michael Henrique
PorMichael Henrique
Siga:
Sou apaixonado por tecnologia, especialmente por consoles, começando minha jornada com um Nintendo 64. Gosto de explorar novos gadgets e sempre busco as melhores ofertas para economizar em minhas compras.

Mais Lidas

  • Quem Somos
  • Política Editorial
  • Política de Privacidade
  • Sitemap
  • Contato

Redes: 

© 2024 Tech2. Todos os direitos reservado

Welcome Back!

Sign in to your account

Username or Email Address
Password

Lost your password?