微软发布Maia 200芯片,10 petaflops算力助力AI推理成本大幅降低
•35 阅读•3分钟•前沿
NVIDIAMicrosoftMaia 200
Lucas Ropek••35 阅读•3分钟•前沿

发布概览
微软今日在华盛顿发布了全新AI推理芯片——Maia 200。该芯片基于7nm工艺,内含超过1000亿个晶体管,提供4位精度下超过10 PFLOPS、8位精度约5 PFLOPS的算力。微软宣称,一台Maia 200节点即可轻松运行当下最大的生成式模型,并为未来更大的模型留出充足余量。
核心规格
- 晶体管数量:>1000 亿
- 算力:4‑bit 10 PFLOPS,8‑bit 5 PFLOPS
- 功耗:相较前代Maia 100降低约30%
- 制程:7 nm
- 兼容性:支持微软自研的AI框架以及主流LLM推理库
与竞争对手的对比
| 项目 | Maia 200 | Google TPU v7 | Amazon Trainium 3 |
|---|---|---|---|
| FP4 性能 | 10 PFLOPS (约3倍) | 3.2 PFLOPS | 3.3 PFLOPS |
| FP8 性能 | 5 PFLOPS (领先) | 4.1 PFLOPS | 4.5 PFLOPS |
| 能效比 | 最高 | 次之 | 次之 |
| 生态开放 | SDK 已面向开发者开放 | 仅限云端调用 | 仅限亚马逊云 |
微软强调,Maia 200的推出是为了解决日益增长的推理成本。随着生成式模型规模不断扩大,推理阶段的算力和能耗已成为企业运营的主要瓶颈。相比依赖NVIDIA GPU,使用自研芯片可在硬件采购、功耗以及软硬件协同优化上获得更大空间。
生态布局与合作
- 微软已向开发者、学术机构以及前沿AI实验室发放Maia 200 SDK,鼓励在Copilot、Azure AI以及内部Superintelligence团队的模型上进行实验。
- 与Azure云深度集成,用户可通过“一键部署”在云端租用Maia节点,免除自建硬件的资本开支。
- 计划在2026年下半年推出基于Maia的专用加速服务,面向企业级推理需求。
行业意义
Maia 200的发布标志着大型科技公司在AI硬件领域的布局进入新阶段。过去几年,NVIDIA凭借GPU垄断了AI算力市场,而谷歌、亚马逊等已推出自研加速器。微软此举不仅是对NVIDIA的直接竞争,也为整个AI生态提供了更多元的硬件选项,有望压低算力成本、提升模型部署灵活性。
“在实际场景中,一台Maia 200节点即可支撑今天最大的生成式模型,并为更大的模型预留余量。”——微软官方声明
随着Maia 200进入市场,业界将密切关注其在真实工作负载下的表现,以及是否能够真正改变AI推理的成本结构。
本文是对第三方新闻源的主观解读。消息可能出现过时、不准确、歧义或错误的地方,仅供参考使用。点击此处查看消息源。