微软发布Maia 200芯片,10 petaflops算力助力AI推理成本大幅降低

35 阅读3分钟前沿
微软发布Maia 200芯片,10 petaflops算力助力AI推理成本大幅降低

发布概览

微软今日在华盛顿发布了全新AI推理芯片——Maia 200。该芯片基于7nm工艺,内含超过1000亿个晶体管,提供4位精度下超过10 PFLOPS、8位精度约5 PFLOPS的算力。微软宣称,一台Maia 200节点即可轻松运行当下最大的生成式模型,并为未来更大的模型留出充足余量。

核心规格

  • 晶体管数量:>1000 亿
  • 算力:4‑bit 10 PFLOPS,8‑bit 5 PFLOPS
  • 功耗:相较前代Maia 100降低约30%
  • 制程:7 nm
  • 兼容性:支持微软自研的AI框架以及主流LLM推理库

与竞争对手的对比

项目Maia 200Google TPU v7Amazon Trainium 3
FP4 性能10 PFLOPS (约3倍)3.2 PFLOPS3.3 PFLOPS
FP8 性能5 PFLOPS (领先)4.1 PFLOPS4.5 PFLOPS
能效比最高次之次之
生态开放SDK 已面向开发者开放仅限云端调用仅限亚马逊云

微软强调,Maia 200的推出是为了解决日益增长的推理成本。随着生成式模型规模不断扩大,推理阶段的算力和能耗已成为企业运营的主要瓶颈。相比依赖NVIDIA GPU,使用自研芯片可在硬件采购、功耗以及软硬件协同优化上获得更大空间。

生态布局与合作

  • 微软已向开发者、学术机构以及前沿AI实验室发放Maia 200 SDK,鼓励在Copilot、Azure AI以及内部Superintelligence团队的模型上进行实验。
  • 与Azure云深度集成,用户可通过“一键部署”在云端租用Maia节点,免除自建硬件的资本开支。
  • 计划在2026年下半年推出基于Maia的专用加速服务,面向企业级推理需求。

行业意义

Maia 200的发布标志着大型科技公司在AI硬件领域的布局进入新阶段。过去几年,NVIDIA凭借GPU垄断了AI算力市场,而谷歌、亚马逊等已推出自研加速器。微软此举不仅是对NVIDIA的直接竞争,也为整个AI生态提供了更多元的硬件选项,有望压低算力成本、提升模型部署灵活性。

“在实际场景中,一台Maia 200节点即可支撑今天最大的生成式模型,并为更大的模型预留余量。”——微软官方声明

随着Maia 200进入市场,业界将密切关注其在真实工作负载下的表现,以及是否能够真正改变AI推理的成本结构。

本文是对第三方新闻源的主观解读。消息可能出现过时、不准确、歧义或错误的地方,仅供参考使用。点击此处查看消息源。