Meta diz que sua IA teve uma ‘alucinação’ ao negar atentado a Donald Trump

Por Luciano Rodrigues
Meta diz que sua IA teve uma 'alucinação', ao negar atentado a Donald Trump - Imagem: Dall-E

O assistente de inteligência artificial da Meta causou controvérsia ao afirmar incorretamente que a recente tentativa de assassinato do ex-presidente Donald Trump não aconteceu. Este erro foi atribuído por um executivo da empresa à tecnologia subjacente que alimenta o chatbot e outros sistemas de IA da Meta.

Em uma postagem de blog publicada na terça-feira (30), Joel Kaplan, chefe global de política da Meta, classificou as respostas da IA às perguntas sobre o tiroteio como “infelizes”.

CONTINUA APÓS A PUBLICIDADE

Segundo Kaplan, a Meta AI foi inicialmente programada para não responder a perguntas sobre a tentativa de assassinato, mas a restrição foi removida após as pessoas começarem a notar a omissão.

Kaplan reconheceu que, em um pequeno número de casos, a IA da Meta continuou a fornecer respostas incorretas, às vezes afirmando que o evento não aconteceu.

Esses tipos de respostas são chamados de alucinações, um problema presente em todos os sistemas de IA generativa, e é um desafio contínuo para a forma como a IA lida com eventos em tempo real.”

Ele acrescentou que a Meta está trabalhando rapidamente para resolver o problema e melhorar a precisão das respostas da IA.

Kaplan destacou também que, como todos os sistemas de IA generativa, os modelos da Meta podem retornar saídas imprecisas ou inapropriadas, e que a empresa continuará a abordar esses problemas à medida que a tecnologia evolui e mais feedback é recebido dos usuários.

CONTINUA APÓS A PUBLICIDADE

Problemas generalizados com IA generativa

Não é apenas a Meta que enfrenta dificuldades neste campo. Nessa semana, o Google também teve que refutar alegações de que seu recurso de preenchimento automático de pesquisa estava censurando resultados sobre a tentativa de assassinato de Trump.

O candidato a presidência dos EUA, em um post no Truth Social, acusou as grandes empresas de tecnologia de tentar manipular a eleição.

Lá vamos nós de novo, outra tentativa de MANIPULAR A ELEIÇÃO!!! VÁ ATRÁS DO META E DO GOOGLE.”

Desde o surgimento do ChatGPT, a indústria de tecnologia tem lutado para limitar a tendência das IAs generativas de produzirem informações falsas.

Algumas empresas, como a Meta, tentaram fundamentar seus chatbots com dados de qualidade e resultados de pesquisa em tempo real para compensar as alucinações.

CONTINUA APÓS A PUBLICIDADE

No entanto, como demonstra este incidente, superar a propensão dos grandes modelos de linguagem para inventar informações continua sendo um desafio significativo.

 

Compartilhe:
Siga:
Jornalista, assessor de comunicação, escritor e comunicador, com MBA em jornalismo digital e 12 anos de experiência, tendo passado também por alguns veículos no setor tech.
Sair da versão mobile