- BitNet roda IA avançada até em chips simples de CPUs
- Modelo da Microsoft supera concorrentes em testes matemáticos e lógicos
- IA leve, rápida e eficiente mesmo sem usar GPU
A Microsoft acaba de revelar uma inovação promissora no campo da inteligência artificial. Seus pesquisadores desenvolveram o BitNet b1.58 2B4T, um modelo extremamente leve que funciona até em CPUs comuns, sem precisar de placas de vídeo potentes.
O modelo roda, por exemplo, no chip M2 da Apple. E mesmo com limitações de hardware, apresenta desempenho superior a modelos de IA de empresas como Meta, Google e Alibaba.
BitNet usa apenas três valores para processar IA
Esse modelo pertence à categoria dos “bitnets”, uma abordagem que quantiza os pesos do modelo em apenas três valores possíveis, -1, 0 e 1. Esse método reduz drasticamente a quantidade de memória e poder de processamento necessário.
Com isso, o BitNet b1.58 2B4T roda com menos consumo de energia, menos uso de memória e, ainda assim, mantém a capacidade de competir com grandes nomes da IA. A Microsoft treinou o modelo com 4 trilhões de tokens, o equivalente a 33 milhões de livros.
O novo modelo possui 2 bilhões de parâmetros e venceu concorrentes como o Llama 3.2 1B da Meta, o Gemma 3 1B da Google e o Qwen 2.5 1.5B da Alibaba em testes como o GSM8K, que exige raciocínio lógico e resolução de problemas matemáticos.
Eficiência vem com restrições de compatibilidade
A velocidade do BitNet impressiona, até o dobro da performance de modelos tradicionais com o mesmo tamanho. E tudo isso usando uma fração da memória, o que o torna ideal para dispositivos com recursos limitados.
Mas há uma limitação, o BitNet exige o uso do bitnet.cpp, estrutura desenvolvida pela própria Microsoft. Esse sistema ainda não funciona com GPUs, que dominam a infraestrutura atual da IA.
Embora a eficiência salte aos olhos, a Microsoft enfrenta o desafio da compatibilidade restrita. Mesmo assim, o potencial da tecnologia é claro, tornar a IA acessível mesmo sem supermáquinas.