1. TugaTech » Hardware » Noticias de Hardware
  Login     Registar    |                      
Siga-nos

Microsoft maia 200

A corrida pela supremacia no hardware de Inteligência Artificial acaba de ganhar um novo capítulo de peso. A Microsoft não perdeu tempo e, após ter dado os primeiros passos em 2023 com o projeto Maia e detalhado o Maia 100 no ano passado, acaba de apresentar oficialmente o seu sucessor: o Maia 200.

Este novo chip acelerador de IA de segunda geração surge com uma missão clara: dominar as cargas de trabalho de inferência com uma eficiência e potência que, segundo a empresa, deixam a concorrência direta para trás.

O salto para os 3nm e especificações de topo

Enquanto o modelo anterior se baseava no processo de 5nm da TSMC, o novo Maia 200 dá o salto tecnológico para o processo de 3nm da fabricante taiwanesa. Esta evolução permitiu à gigante de Redmond integrar núcleos tensores nativos FP8 e FP4, otimizando drasticamente o processamento de modelos de linguagem.

Os números revelados no blog oficial não deixam margem para dúvidas sobre a ambição deste hardware. O chip suporta uns impressionantes 216 GB de memória HBM3e, oferecendo uma largura de banda de 7 TB/s, apoiada por 272 MB de SRAM no próprio chip.

Comparação direta: Microsoft vs. Google e Amazon

Num movimento pouco habitual na indústria, a Microsoft decidiu não apenas lançar o produto, mas publicar diretamente uma tabela comparativa contra os seus maiores rivais no espaço dos "hyperscalers". A empresa reivindica ter criado o silício interno com maior performance do mercado.

Segundo os dados apresentados, o Maia 200 consegue entregar quase o dobro do desempenho em FP8 quando comparado com a terceira geração do chip Trainium da Amazon. Olhando para a concorrência de Mountain View, o novo chip da Microsoft supera também a sétima geração dos TPU da Google, com uma vantagem de cerca de 10% no mesmo tipo de processamento.

Além da força bruta, a eficiência foi um ponto chave. A empresa afirma que o novo hardware oferece um desempenho por dólar 30% superior face às soluções atuais implementadas no Azure.

 

Já a alimentar o GPT-5.2

Ao contrário do seu antecessor, que foi anunciado muito antes de chegar ao terreno, o Maia 200 já está em pleno funcionamento. O hardware encontra-se implantado nos centros de dados da região Central dos EUA (Iowa) e na região Oeste 3 (Arizona).

A capacidade de escala foi desenhada a pensar no futuro, com uma placa de rede (NIC) integrada que permite uma largura de banda bidirecional de 2,8 TB/s, facilitando a comunicação em clusters massivos de até 6.144 aceleradores.

Na prática, este poder de fogo já está a ser utilizado para alimentar uma gama variada de modelos, incluindo o avançado GPT-5.2 da OpenAI. O objetivo é suportar as funcionalidades de IA omnipresentes no Microsoft 365 e outros serviços, além de servir a equipa de Superinteligência da empresa no desenvolvimento de novos modelos através de aprendizagem por reforço e geração de dados sintéticos.

Para os programadores e startups que queiram tirar partido deste novo "cérebro" digital, a tecnológica disponibilizou uma pré-visualização do Maia SDK, que inclui integração com PyTorch e bibliotecas otimizadas para extrair o máximo do novo silício.

Foto do Autor

Aficionado por tecnologia desde o tempo dos sistemas a preto e branco

Ver perfil do usuário Enviar uma mensagem privada Enviar um email Facebook do autor Twitter do autor Skype do autor

conectado
Encontrou algum erro neste artigo?



Aplicações do TugaTechAplicações TugaTechDiscord do TugaTechDiscord do TugaTechRSS TugaTechRSS do TugaTechSpeedtest TugaTechSpeedtest TugatechHost TugaTechHost TugaTech