NVIDIA加速开放模型布局,Nemotron系列引领AI基础设施新赛道

30 阅读3分钟视野

背景与发布

NVIDIA在2025年陆续推出多款开源大模型,最新的Nemotron 3 Nano于2025年12月亮相,随后计划在2026年上半年推出Super和Ultra变种。该系列采用混合MoE与FP8/FP4训练技术,参数规模从30B到上百B不等,支持最高1M上下文长度。

商业动机与生态

Catanzaro指出,开放模型是NVIDIA的“双赢”策略:

  • 潜在能量:开源模型为各行业提供可定制的AI底层能力,进而刺激GPU、CUDA等硬件需求。
  • 生态驱动:模型越开放,越多开发者在NVIDIA平台上实验、优化,形成“AI即基础设施”的闭环。
  • 市场差异:相较于OpenAI的服务化闭环,NVIDIA专注于模型、数据、训练框架的开源,帮助客户自行构建AI应用,提升硬件黏性。

技术堆栈与数据

  • Megatron‑LM:自2019年起演进为多团队共同维护的核心并行训练框架,近期加入FP4位宽支持,显著提升算力利用率。
  • NeMo:端到端的模型训练、评估、部署流水线,覆盖从基础模型到指令微调。
  • 数据发布:2025年起公开CC‑v2、CC‑Code、Specialized‑v1等大规模预训练数据集,并提供后训练SFT/RLHF数据(HelpSteer系列),在业界属于少数承担法律风险的公司。

团队与组织模式

NVIDIA约有500名全职技术人员直接参与Nemotron项目,另有约2000名员工通过全公司All‑Hands关注该项目。团队采用“邀请而非控制”理念,设立Pilot‑in‑Command负责各子领域(如量化、稀疏化、跨模态),通过公开议题库和集成实验(Integration Studies)实现自上而下的协同。

行业意义与未来展望

Catanzaro将AI比作潜在能量,强调“智能/秒”而非绝对智能的重要性。未来的竞争将围绕算力效率、模型可扩展性以及与硬件的深度耦合展开。NVIDIA计划继续推动更低位宽训练、混合Transformer‑Mamba架构,以及更丰富的开源数据,以巩固其在AI基础设施领域的领先地位。

“AI是基础设施,只有把‘潜能’转化为‘动能’,企业才能真正受益。”——Bryan Catanzaro

本文是对第三方新闻源的主观解读。消息可能出现过时、不准确、歧义或错误的地方,仅供参考使用。点击此处查看消息源。