1. TugaTech » Hardware » Noticias de Hardware
  Login     Registar    |                      
Siga-nos

Microsoft maia 200

A corrida pela supremacia no hardware de Inteligência Artificial acaba de ganhar um novo capítulo de peso. A Microsoft não perdeu tempo e, após ter dado os primeiros passos em 2023 com o projeto Maia e detalhado o Maia 100 no ano passado, acaba de apresentar oficialmente o seu sucessor: o Maia 200.

Este novo chip acelerador de IA de segunda geração surge com uma missão clara: dominar as cargas de trabalho de inferência com uma eficiência e potência que, segundo a empresa, deixam a concorrência direta para trás.

O salto para os 3nm e especificações de topo

Enquanto o modelo anterior se baseava no processo de 5nm da TSMC, o novo Maia 200 dá o salto tecnológico para o processo de 3nm da fabricante taiwanesa. Esta evolução permitiu à gigante de Redmond integrar núcleos tensores nativos FP8 e FP4, otimizando drasticamente o processamento de modelos de linguagem.

Os números revelados no blog oficial não deixam margem para dúvidas sobre a ambição deste hardware. O chip suporta uns impressionantes 216 GB de memória HBM3e, oferecendo uma largura de banda de 7 TB/s, apoiada por 272 MB de SRAM no próprio chip.

Comparação direta: Microsoft vs. Google e Amazon

Num movimento pouco habitual na indústria, a Microsoft decidiu não apenas lançar o produto, mas publicar diretamente uma tabela comparativa contra os seus maiores rivais no espaço dos "hyperscalers". A empresa reivindica ter criado o silício interno com maior performance do mercado.

Segundo os dados apresentados, o Maia 200 consegue entregar quase o dobro do desempenho em FP8 quando comparado com a terceira geração do chip Trainium da Amazon. Olhando para a concorrência de Mountain View, o novo chip da Microsoft supera também a sétima geração dos TPU da Google, com uma vantagem de cerca de 10% no mesmo tipo de processamento.

Além da força bruta, a eficiência foi um ponto chave. A empresa afirma que o novo hardware oferece um desempenho por dólar 30% superior face às soluções atuais implementadas no Azure.

 

Já a alimentar o GPT-5.2

Ao contrário do seu antecessor, que foi anunciado muito antes de chegar ao terreno, o Maia 200 já está em pleno funcionamento. O hardware encontra-se implantado nos centros de dados da região Central dos EUA (Iowa) e na região Oeste 3 (Arizona).

A capacidade de escala foi desenhada a pensar no futuro, com uma placa de rede (NIC) integrada que permite uma largura de banda bidirecional de 2,8 TB/s, facilitando a comunicação em clusters massivos de até 6.144 aceleradores.

Na prática, este poder de fogo já está a ser utilizado para alimentar uma gama variada de modelos, incluindo o avançado GPT-5.2 da OpenAI. O objetivo é suportar as funcionalidades de IA omnipresentes no Microsoft 365 e outros serviços, além de servir a equipa de Superinteligência da empresa no desenvolvimento de novos modelos através de aprendizagem por reforço e geração de dados sintéticos.

Para os programadores e startups que queiram tirar partido deste novo "cérebro" digital, a tecnológica disponibilizou uma pré-visualização do Maia SDK, que inclui integração com PyTorch e bibliotecas otimizadas para extrair o máximo do novo silício.




Aplicações do TugaTechAplicações TugaTechDiscord do TugaTechDiscord do TugaTechRSS TugaTechRSS do TugaTechSpeedtest TugaTechSpeedtest TugatechHost TugaTechHost TugaTech