O assistente de inteligência artificial da Meta causou controvérsia ao afirmar incorretamente que a recente tentativa de assassinato do ex-presidente Donald Trump não aconteceu. Este erro foi atribuído por um executivo da empresa à tecnologia subjacente que alimenta o chatbot e outros sistemas de IA da Meta.
Em uma postagem de blog publicada na terça-feira (30), Joel Kaplan, chefe global de política da Meta, classificou as respostas da IA às perguntas sobre o tiroteio como “infelizes”.
Segundo Kaplan, a Meta AI foi inicialmente programada para não responder a perguntas sobre a tentativa de assassinato, mas a restrição foi removida após as pessoas começarem a notar a omissão.
Kaplan reconheceu que, em um pequeno número de casos, a IA da Meta continuou a fornecer respostas incorretas, às vezes afirmando que o evento não aconteceu.
Esses tipos de respostas são chamados de alucinações, um problema presente em todos os sistemas de IA generativa, e é um desafio contínuo para a forma como a IA lida com eventos em tempo real.”
Ele acrescentou que a Meta está trabalhando rapidamente para resolver o problema e melhorar a precisão das respostas da IA.
Kaplan destacou também que, como todos os sistemas de IA generativa, os modelos da Meta podem retornar saídas imprecisas ou inapropriadas, e que a empresa continuará a abordar esses problemas à medida que a tecnologia evolui e mais feedback é recebido dos usuários.
Problemas generalizados com IA generativa
Não é apenas a Meta que enfrenta dificuldades neste campo. Nessa semana, o Google também teve que refutar alegações de que seu recurso de preenchimento automático de pesquisa estava censurando resultados sobre a tentativa de assassinato de Trump.
O candidato a presidência dos EUA, em um post no Truth Social, acusou as grandes empresas de tecnologia de tentar manipular a eleição.
Lá vamos nós de novo, outra tentativa de MANIPULAR A ELEIÇÃO!!! VÁ ATRÁS DO META E DO GOOGLE.”
Desde o surgimento do ChatGPT, a indústria de tecnologia tem lutado para limitar a tendência das IAs generativas de produzirem informações falsas.
Algumas empresas, como a Meta, tentaram fundamentar seus chatbots com dados de qualidade e resultados de pesquisa em tempo real para compensar as alucinações.
No entanto, como demonstra este incidente, superar a propensão dos grandes modelos de linguagem para inventar informações continua sendo um desafio significativo.