
A corrida pela supremacia no hardware de Inteligência Artificial acaba de ganhar um novo capítulo de peso. A Microsoft não perdeu tempo e, após ter dado os primeiros passos em 2023 com o projeto Maia e detalhado o Maia 100 no ano passado, acaba de apresentar oficialmente o seu sucessor: o Maia 200.
Este novo chip acelerador de IA de segunda geração surge com uma missão clara: dominar as cargas de trabalho de inferência com uma eficiência e potência que, segundo a empresa, deixam a concorrência direta para trás.
O salto para os 3nm e especificações de topo
Enquanto o modelo anterior se baseava no processo de 5nm da TSMC, o novo Maia 200 dá o salto tecnológico para o processo de 3nm da fabricante taiwanesa. Esta evolução permitiu à gigante de Redmond integrar núcleos tensores nativos FP8 e FP4, otimizando drasticamente o processamento de modelos de linguagem.
Os números revelados no blog oficial não deixam margem para dúvidas sobre a ambição deste hardware. O chip suporta uns impressionantes 216 GB de memória HBM3e, oferecendo uma largura de banda de 7 TB/s, apoiada por 272 MB de SRAM no próprio chip.
Comparação direta: Microsoft vs. Google e Amazon
Num movimento pouco habitual na indústria, a Microsoft decidiu não apenas lançar o produto, mas publicar diretamente uma tabela comparativa contra os seus maiores rivais no espaço dos "hyperscalers". A empresa reivindica ter criado o silício interno com maior performance do mercado.
Segundo os dados apresentados, o Maia 200 consegue entregar quase o dobro do desempenho em FP8 quando comparado com a terceira geração do chip Trainium da Amazon. Olhando para a concorrência de Mountain View, o novo chip da Microsoft supera também a sétima geração dos TPU da Google, com uma vantagem de cerca de 10% no mesmo tipo de processamento.
Além da força bruta, a eficiência foi um ponto chave. A empresa afirma que o novo hardware oferece um desempenho por dólar 30% superior face às soluções atuais implementadas no Azure.
Já a alimentar o GPT-5.2
Ao contrário do seu antecessor, que foi anunciado muito antes de chegar ao terreno, o Maia 200 já está em pleno funcionamento. O hardware encontra-se implantado nos centros de dados da região Central dos EUA (Iowa) e na região Oeste 3 (Arizona).
A capacidade de escala foi desenhada a pensar no futuro, com uma placa de rede (NIC) integrada que permite uma largura de banda bidirecional de 2,8 TB/s, facilitando a comunicação em clusters massivos de até 6.144 aceleradores.
Na prática, este poder de fogo já está a ser utilizado para alimentar uma gama variada de modelos, incluindo o avançado GPT-5.2 da OpenAI. O objetivo é suportar as funcionalidades de IA omnipresentes no Microsoft 365 e outros serviços, além de servir a equipa de Superinteligência da empresa no desenvolvimento de novos modelos através de aprendizagem por reforço e geração de dados sintéticos.
Para os programadores e startups que queiram tirar partido deste novo "cérebro" digital, a tecnológica disponibilizou uma pré-visualização do Maia SDK, que inclui integração com PyTorch e bibliotecas otimizadas para extrair o máximo do novo silício.












Nenhum comentário
Seja o primeiro!