Tech2 News Logo Dark Tech2 News Logo Light
Grupo de Ofertas
  • Notícias
  • Apps
  • Auto
  • Inteligência Artificial
  • Ciência
  • Celular
  • Games
  • Software
    • VPN
  • Apostas
Você está lendo: Os benchmarks da Meta para os novos modelos de IA são um pouco enganosos
Compartilhe
Font ResizerAa
Tech2Tech2
Pesquisar
  • Últimas Notícias
  • Apostas
  • Apps
  • Auto
  • Celular
  • Ciência
  • Computador
  • Curiosidades
  • Inteligência Artificial
  • Internet
  • Games
  • Software
    • VPN
  • Universo
Tech2 > Inteligência Artificial > Os benchmarks da Meta para os novos modelos de IA são um pouco enganosos
Inteligência Artificial

Os benchmarks da Meta para os novos modelos de IA são um pouco enganosos

Por Michael Henrique
Última Atualização: 07/04/2025
Compartilhe
Os benchmarks da Meta para os novos modelos de IA são um pouco enganosos
Imagem: Dall-e
Compartilhe
  • Meta testa IA otimizada, mas entrega versão inferior ao público.
  • Benchmarks do Maverick não refletem uso real do modelo.
  • Diferença entre versões gera confusão entre desenvolvedores e usuários.

A Meta lançou no sábado o Maverick, um de seus modelos de inteligência artificial mais promissores. Poucas horas depois, ele já aparecia em segundo lugar no ranking do LM Arena, um dos testes mais populares da comunidade.

Mas o entusiasmo esbarrou em um detalhe importante, a versão usada no benchmark não é a mesma que está disponível ao público.

Modelo otimizado gera confusão

No anúncio oficial, a Meta afirmou que o Maverick testado no LM Arena é uma “versão experimental de bate-papo”. Já no site do Llama, um gráfico deixa claro que os testes envolveram uma edição do Maverick “otimizada para conversação”.

Essa personalização gerou reações imediatas. Pesquisadores de IA no X apontaram que a empresa não deixou claro, de forma transparente, o quanto essa versão difere da liberada para desenvolvedores.

Esse tipo de ajuste para se sair melhor em testes comparativos não é inédito. No entanto, a prática costuma ser malvista, já que distorce a percepção real do desempenho do modelo, especialmente quando envolve empresas como a Meta.

Comparações da Meta que não se sustentam

Na prática, o Maverick testado e o Maverick distribuído se comportam de formas bem distintas. Usuários relataram que a versão pública responde de maneira mais curta, com menos expressividade e sem o uso exagerado de emojis, marca registrada do modelo do LM Arena.

Isso dificulta a vida dos desenvolvedores. Sem acesso à versão “campeã”, eles não conseguem saber com precisão o que esperar da ferramenta ao aplicá-la em casos reais.

Historicamente, a LM Arena já enfrentou críticas por não ser um parâmetro confiável. Mas até agora, as empresas respeitavam um certo padrão ético: não ajustavam modelos apenas para pontuar melhor.

Ao romper com essa tradição, a Meta cria um precedente perigoso. Benchmarks existem para ajudar o mercado a entender a capacidade real de cada tecnologia. Se eles se tornarem apenas vitrines, os usuários e empresas acabam tomando decisões baseadas em promessas que não se confirmam na prática.

Leia Também

Tinder aposta em IA e novos recursos para reconquistar usuários
ElevenLabs lança IA para criar músicas com uso comercial liberado
WhatsApp bloqueia 6,8 milhões de contas ligadas a golpes globais
ChatGPT agora vai detectar sofrimento emocional e emitir alertas
Genie 3: DeepMind apresenta IA que pode gerar qualquer mundo real ou imaginário
Sobre:benchmarksIAMeta
Compartilhe:
Facebook Whatsapp Whatsapp Telegram Copiar Link
Michael Henrique
PorMichael Henrique
Siga:
Sou apaixonado por tecnologia, especialmente por consoles, começando minha jornada com um Nintendo 64. Gosto de explorar novos gadgets e sempre busco as melhores ofertas para economizar em minhas compras.

Mais Lidas

  • Quem Somos
  • Política Editorial
  • Política de Privacidade
  • Sitemap
  • Contato

Redes: 

© 2024 Tech2. Todos os direitos reservado

Welcome Back!

Sign in to your account

Username or Email Address
Password

Lost your password?