Sasha Luccioni, da Hugging Face, empresa desenvolve ferramentas para construção de aplicativos usando aprendizado de máquina, alertou recentemente que a IA generativa consome muita energia. Cada consulta ao modelo ativa um grande volume de processos, tornando-o extremamente ineficiente do ponto de vista computacional.
Large Language Models (LLMs), usados em muitos sistemas de IA generativa, são treinados em vastos estoques de informações escritas, permitindo a produção de textos em resposta a diversas consultas e exigindo um grande esforço computacional.
“Quando você usa IA generativa, está gerando conteúdo do zero, basicamente inventando respostas”, explica Dr. Luccioni.
Um estudo recente da Dra. Luccioni e colegas indica que um sistema de IA generativa pode utilizar cerca de 33 vezes mais energia do que máquinas específicas para tarefas – o estudo ainda não foi publicado, embora já tenha sido revisado por pares.
Essa energia não vem do seu computador pessoal ou smartphone, mas de enormes data centers, invisíveis para a maioria das pessoas. Em 2022, esses centros consumiram 460 terawatts-hora de eletricidade. A Agência Internacional de Energia (AIE) prevê que esse consumo pode dobrar até 2026, atingindo 1.000 terawatts-hora, equivalente ao consumo de eletricidade do Japão, um país com 125 milhões de habitantes.
- Leia também: DHL, Líder global no setor de logística, passa a usar IA Generativa para melhorar rastreamento de cargas
A Realidade Energética por Trás da IA Generativa
Os data centers armazenam enormes volumes de informações, de e-mails a filmes, alimentando IA e criptomoedas. Alguns países, como a Irlanda, já enfrentam o impacto energético desses centros, com quase um quinto da eletricidade do país consumida por eles. No Reino Unido, a demanda de eletricidade por data centers pode aumentar seis vezes em 10 anos, segundo a National Grid. Nos EUA, as empresas de serviços públicos também sentem a pressão.
Chris Seiple, consultora da Wood Mackenzie, afirma que os data centers estão pressionando a infraestrutura energética local, enquanto há um aumento na produção nacional devido a políticas governamentais.
Os desenvolvedores estão buscando locais próximos a fontes de energia barata, como Iowa, conhecida pela geração eólica. A latência, ou o atraso entre o envio de informações e a recepção pelo usuário, é menos crítica para IA generativa, permitindo a localização dos data centers em áreas remotas. A demanda por energia dos data centers continuará a crescer, mas há incerteza sobre a quantidade, devido à evolução constante do hardware de IA generativa.
Tony Grayson, gerente geral da Compass Quantum, destaca os novos chips Grace Blackwell da Nvidia, que prometem maior eficiência energética. Com 2.000 chips Grace Blackwell, o mesmo trabalho pode ser feito com menos energia do que com 8.000 chips da geração anterior. Apesar dos avanços, o consumo energético ainda é significativo, resultando em 8,6 gigawatts-hora de eletricidade.
Dale Sartor, do Laboratório Nacional Lawrence Berkeley, argumenta que os data centers se tornaram mais eficientes ao longo do tempo. A eficácia no uso de energia (PUE) dos data centers de última geração é de cerca de 1,1.
Na Europa, há iniciativas para utilizar o calor residual dos data centers, como aquecer piscinas.
Bruce Owen, da Equinix, prevê que a demanda crescerá mais rápido do que os ganhos em eficiência, resultando na construção de mais data centers com geração de energia no local.
A viabilidade da IA generativa para certas aplicações pode ser determinada pelos custos, afirma Sartor. Dr. Luccioni enfatiza a necessidade de entender as diferenças em eficiência energética entre as opções de IA, trabalhando em um projeto para desenvolver classificações energéticas para IA. Ela sugere que, em vez de optar por modelos de IA energeticamente ineficientes, as pessoas podem escolher modelos mais leves e eficientes, como os certificados Energy Star A+.