
Após o sucesso estrondoso da arquitetura Blackwell, a Nvidia não mostra sinais de abrandamento e aproveitou o palco da CES 2026 para revelar o futuro dos supercomputadores de Inteligência Artificial. A gigante tecnológica anunciou hoje a plataforma Rubin, uma nova geração de chips desenhada para maximizar a eficiência e o desempenho no treino e inferência de modelos de IA.
A nova plataforma Rubin surge como uma evolução natural e agressiva no roteiro da empresa, prometendo melhorias substanciais tanto para os centros de dados como para os fornecedores de serviços na nuvem.
O sucessor do Blackwell
A plataforma Rubin é composta por um conjunto de seis chips distintos, co-desenhados para funcionarem em perfeita harmonia. No coração deste sistema encontram-se o novo CPU NVIDIA Vera e o GPU NVIDIA Rubin, acompanhados pelo Switch NVLink 6, o SuperNIC ConnectX-9 e o DPU BlueField-4.
Para os hyperscalers, a empresa destaca soluções de escala de rack, como o sistema NVIDIA Vera Rubin NVL72. Segundo a marca, estas inovações permitem que a plataforma Rubin ofereça uma inferência de IA com um custo por token até 10 vezes inferior em comparação com a plataforma Blackwell. Além disso, a eficiência no treino de modelos MoE (Mixture of Experts) é drasticamente melhorada, necessitando de quatro vezes menos GPUs para realizar a mesma tarefa.
Estas melhorias foram possíveis graças à introdução da mais recente geração da tecnologia de interconexão NVLink, ao novo Motor de Transformação (Transformer Engine) e à integração do CPU Vera. A Nvidia confirmou que a plataforma Rubin já se encontra em produção total e deverá começar a ser adotada pelos principais parceiros — incluindo a AWS e a Google Cloud — na segunda metade de 2026.
Microsoft e a infraestrutura do futuro
A Microsoft foi uma das primeiras a confirmar a sua aposta na nova geração, anunciando que irá implementar os sistemas Vera Rubin NVL72 nos seus centros de dados de próxima geração para o Azure.
Os números apresentados são impressionantes: os novos chips prometem entregar 50 PF de desempenho de inferência NVFP4 por chip e uns estonteantes 3,6 EF por rack. Isto representa um aumento de quase cinco vezes face aos atuais sistemas baseados em GB200. Para acomodar este salto tecnológico, a infraestrutura do Azure já sofreu alterações profundas:
Evolução do NVLink: A arquitetura dos racks foi redesenhada para operar com a sexta geração do tecido NVLink, permitindo larguras de banda na ordem dos 260 TB/s.
Memória e Térmica: O planeamento para as memórias HBM4 e HBM4e exigiu atualizações nos sistemas de refrigeração e na geometria dos racks para lidar com densidades mais elevadas.
Rede de Alta Performance: A infraestrutura de rede suportará a tecnologia ConnectX-9 da plataforma Rubin, atingindo velocidades de 1.600 Gb/s para lidar com cargas de trabalho massivas.
Esta integração profunda, conforme detalhado no comunicado oficial da NVIDIA, é fruto de anos de co-design entre as empresas, permitindo que a nova arquitetura seja implementada sem necessidade de reformulações drásticas adicionais.










Nenhum comentário
Seja o primeiro!