
Numa altura em que a pegada ambiental da Inteligência Artificial é um dos temas mais quentes do mundo da tecnologia, a Google decidiu abrir o jogo e fazer as contas ao consumo dos seus modelos Gemini. Os resultados, detalhados num novo documento técnico, procuram desmistificar algumas das estimativas mais elevadas e mostram que uma conversa com a IA pode ter um impacto menor do que se pensa.
Em bom português: um pedido de texto comum nas aplicações Gemini consome, em média, 0,24 watts-hora (Wh) de energia. Para colocar o número em perspetiva, este valor é equivalente a manter uma televisão ligada por menos de nove segundos. A mesma interação emite 0,03 gramas de dióxido de carbono e consome apenas 0,26 mililitros de água, o equivalente a cerca de cinco gotas.
A gigante tecnológica destaca que estes números são substancialmente inferiores a muitas das estimativas públicas, atribuindo a diferença a uma metodologia de cálculo mais abrangente e a um investimento contínuo em eficiência.
Como é que a Google fez as contas?
A empresa sublinha que medir o impacto real da IA à escala global é uma tarefa complexa. Muitos cálculos focam-se apenas no consumo de energia dos processadores durante a computação ativa, o que a Google considera um cenário excessivamente otimista.
A sua metodologia, pelo contrário, inclui todos os fatores operacionais. Além da energia usada pelos chips (TPUs e GPUs) para processar um pedido, a Google contabiliza a energia consumida pelas máquinas que estão inativas mas prontas para responder a picos de tráfego, o consumo dos CPUs e da memória RAM que suportam os modelos, e os custos energéticos da infraestrutura dos próprios centros de dados, como os sistemas de arrefecimento.
Esta abordagem mais completa explica a diferença para cálculos simplificados, que resultariam em valores bastante inferiores mas menos representativos da realidade operacional.
A receita para uma IA mais eficiente
Os ganhos de eficiência do Gemini não surgiram por acaso. São o resultado de anos de otimização em todas as camadas do desenvolvimento de IA, desde o hardware ao software. A Google destaca vários pilares para estes resultados.
A arquitetura dos modelos Gemini, baseada nos Transformers, é intrinsecamente mais eficiente. Técnicas como a Mixture-of-Experts (MoE) permitem ativar apenas as pequenas partes de um modelo grande que são necessárias para responder a um pedido específico, reduzindo drasticamente os cálculos.
O desenvolvimento de hardware personalizado, como as TPUs (Tensor Processing Units), que são desenhadas de raiz para maximizar o desempenho por watt, desempenha um papel crucial. A mais recente geração, Ironwood, é 30 vezes mais eficiente do que a primeira TPU pública da empresa.
A otimização de software, com algoritmos que reduzem o consumo de energia sem sacrificar a qualidade das respostas e técnicas como a "descodificação especulativa" (onde um modelo mais pequeno e rápido antecipa respostas que são depois validadas por um maior), também contribui significativamente.
Um compromisso com a eficiência futura
Apesar dos resultados positivos, a Google reconhece que a procura por serviços de IA continua a crescer exponencialmente. A empresa afirma que os ganhos de eficiência registados no último ano são apenas o começo, com a energia e a pegada de carbono de um pedido mediano no Gemini a diminuírem 33 e 44 vezes, respetivamente, enquanto a qualidade das respostas aumentava.
A gigante tecnológica reafirma o seu compromisso em investir fortemente na redução do consumo de energia e água por cada interação, considerando este um pilar essencial para o desenvolvimento responsável da Inteligência Artificial no futuro.










Nenhum comentário
Seja o primeiro!