中国实验室发布Qwen 3.5、GLM‑5与MiniMax 2.5 加速开源大模型赛道
•9 阅读•3分钟•前沿
百度GLM-5Qwen 3.5智谱AIMiniMaxAI
Florian Brand••9 阅读•3分钟•前沿

模型全景
本期开放模型快报聚焦三大重量级发布:
- Qwen 3.5(百度)——从0.8B到397B‑A17B,覆盖密集与MoE双路结构,默认开启推理(GDN层)并支持多模态输入。
- GLM‑5(智谱AI)——744B‑A40B规模,配套技术报告并因需求激增提升编码计划费用。
- MiniMax 2.5(MiniMaxAI)——2.5B 参数量,却在数学基准和多语言指令上逼近GLM‑5,已成为社区热议焦点。
关键技术升级
- 混合专家(MoE)扩容:Qwen 3.5的最高规格达397B‑A17B,采用稀疏激活提升计算效率,实现大模型性能与成本的平衡。
- GDN 推理层:所有Qwen系列默认开启推理,提升复杂任务的逻辑连贯性,尤其在多轮对话与代码生成上表现突出。
- 多模态统一接口:三款模型均支持图像、文本以及结构化数据输入,统一的聊天模板让开发者可灵活开关推理功能。
采纳指标与行业反响
我们使用新推出的 相对采纳指数(RAM) 对近期模型下载量进行归一化评估。
- RAM>1 表示在同尺寸模型中处于前10%下载速度。Qwen 3.5 小规模模型(0.8B‑3B)已突破 1.2,显示出强劲的早期采纳。
- GLM‑5 以 1.4 的 RAM 成绩领跑 700B 以上区间,说明企业级需求快速转向该模型。
- MiniMax 2.5 虽然体量最小,但凭借社区活跃度与开源生态支持,RAM 达到 1.1,已成为小模型的标杆。
市场与生态影响
- 价格与商业化:智谱AI因 GLM‑5 需求激增,已上调编码计划费用,暗示商业化路径正在加速。
- 开源生态:三款模型均提供完整权重与推理代码,促进本地部署与二次开发;尤其是 Qwen 3.5 的多语言优化,为中文‑英文双语场景提供了更可靠的底层支撑。
- 竞争格局:在 DeepSeek V4 仍在等待发布的背景下,国内实验室通过规模与多模态能力的同步提升,形成了对标 OpenAI、Google 的新竞争层。
“开源大模型正从学术实验室走向产业化落地,下一波算力竞争将围绕模型效率与生态成熟度展开。” — 行业分析师
展望
随着 Qwen 3.5、GLM‑5 与 MiniMax 2.5 的生态逐步成熟,预计2026年下半年将出现更多基于这些模型的行业解决方案,包括金融风险评估、智能客服以及跨语言内容生成。与此同时,RAM 体系的持续迭代将为研发团队提供更精细的市场反馈,帮助判断模型迭代的商业价值。
本文是对第三方新闻源的主观解读。消息可能出现过时、不准确、歧义或错误的地方,仅供参考使用。点击此处查看消息源。