Como parte de sua infraestrutura heterogênea de IA, a Microsoft afirma que o Maia 200 atenderá a vários modelos, incluindo a mais recente família GPT-5.2 da OpenAI. Ele se integra perfeitamente ao Microsoft Azure, e o Microsoft Foundry e o Microsoft 365 Copilot também se beneficiarão do chip. A equipe de superinteligência da empresa também planeja usar o Maia 200 para aprendizado por reforço (RL) e geração de dados sintéticos para melhorar modelos internos.
Do ponto de vista das especificações, o Maia 200 excede o Trainium e Inferentia da Amazon e o TPU v4i e v5i do Google, observou Scott Bickleyconsultor do Info-Tech Research Group. Ele é produzido em um nó de 3 nm, em comparação com os nós de 7 nm ou 5 nm dos chips Amazon e Google, e também apresenta desempenho superior em capacidades de computação, interconexão e memória, disse ele.
No entanto, observou ele, “embora esses números sejam impressionantes, os clientes devem verificar o desempenho real dentro da pilha do Azure antes de expandir as cargas de trabalho para fora da Nvidia, por exemplo”. Eles também devem garantir que parte da economia de 30% obtida pela Microsoft seja repassada ao cliente por meio das taxas de assinatura do Azure, acrescentou.
Fonte: Computer World




