微软发布 Maia 200:AI 推理的新纪元

1/26/2026
微软正式推出了 Maia 200,这是一款突破性的推理加速器,旨在通过改善 AI 代币(Token)生成的经济性来应对生成式 AI 的爆发式需求。由微软云与 AI 执行副总裁 Scott Guthrie 宣布的这款芯片,基于 TSMC 最先进的 3 纳米工艺制造。作为微软异构 AI 基础设施的重要组成部分,Maia 200 将为包括 OpenAI 最新的 GPT-5.2 在内的多个模型提供服务,为 Microsoft Foundry 和 Microsoft 365 Copilot 带来显著的性价比优势。此外,微软超级智能团队(Microsoft Superintelligence team)将利用 Maia 200 进行合成数据生成和强化学习,通过加速高质量、特定领域数据的生成与筛选,为下一代内部模型的训练提供更新、更具针对性的信号。 https://blogs.microsoft.com/wp-content/uploads/2026/01/infographic.png 工程卓越:无与伦比的性能与效率 Maia 200 专为大规模 AI 工作负载量身定制,每颗芯片包含超过 1400 亿个晶体管。为了解决数据传输的瓶颈,微软重新设计了内存子系统,配备了带宽高达 7 TB/s 的 216GB HBM3e 内存以及 272MB 的片上 SRAM。其性能指标令人震惊:在 750W 的功耗范围内,单芯片可提供超过 10 petaFLOPS 的 FP4(4位精度) 性能和超过 5 petaFLOPS 的 FP8(8位精度) 性能。 https://blogs.microsoft.com/wp-content/uploads/2026/01/server-blade.png 这使得 Maia 200 成为所有超大规模云厂商中性能最强的第一方芯片。相比之下,它的 FP4 性能是亚马逊第三代 Trainium 的三倍,FP8 性能也高于谷歌的第七代 TPU。除了原始算力,它也是微软有史以来部署的最高效的推理系统,与当前机队中的最新一代硬件相比,其 每美元性能提升了 30%。 https://blogs.microsoft.com/wp-content/uploads/2026/01/Maia-rack-1536x1168.jpg 系统优化与云原生开发 在系统层面,Maia 200 引入了一种基于标准以太网的新颖两层扩展网络设计,不依赖专有网络架构。每个加速器提供 2.8 TB/s 的双向专用带宽,支持多达 6,144 个加速器的集群进行高性能运算。该系统已部署在美国中部(爱荷华州)数据中心,并即将进驻美国西部 3 区(亚利桑那州),且集成了微软第二代闭环液体冷却热交换单元。得益于先进的流片前仿真环境,AI 模型在首批芯片到货后数天内即可运行。对于开发者,微软推出了 Maia SDK 预览版,包含 PyTorch 集成、Triton 编译器和底层编程语言访问权限,确保了模型在异构硬件间的轻松移植与优化。