阿里巴巴发布Qwen 3.5系列 引领开源大模型新范式
•10 阅读•3分钟•前沿
开源大模型MoE阿里巴巴Qwen 3.5
Jesus Rodriguez••10 阅读•3分钟•前沿

背景概述
阿里巴巴于 2026 年 3 月正式发布 Qwen 3.5 系列,这是该公司在开源大模型领域的最新里程碑。系列模型从 0.8B 到 397B 参数不等,覆盖云端高算力服务到手机端轻量推理的全场景需求。
模型规格
- Qwen3.5‑397B‑A17B:旗舰模型,3970 亿参数,采用 17 层稀疏专家网络。
- Qwen3.5‑35B‑A3B:中等规格,35 亿参数,3 层 MoE,兼顾性能与成本。
- Qwen3.5‑Small:0.8B‑9B 参数区间,全部支持 on‑device 推理,适配国产芯片。
架构创新
- 极端稀疏 MoE:抛弃传统稠密 Transformer,使用多专家路由,实现计算与参数规模的解耦,大幅降低训练和推理成本。
- 原生多模态:在 35B 以下模型中直接接入视觉、音频感知模块,实现文本‑图像‑音频统一表示,无需额外适配层。
- 稀疏注意力:改进的 Rotary Positional Embedding 与稀疏注意力机制,使单卡可处理 2‑4 万 token,提升长序列效率。
性能对比
在 MMLU、HELM、MMBench 等公开基准上,Qwen3.5‑397B‑A17B 的整体得分已接近 GPT‑5.2,中文理解与代码生成方面略胜 Claude Opus 4.5。中小规格模型在边缘设备推理时延低于 30ms,显著优于同类开源模型。
行业影响
- 生态加速:全系开源权重与训练脚本同步发布,社区可直接在 HuggingFace 上下载微调,降低本地化部署门槛。
- 竞争格局:通过规模与稀疏化双轮驱动,阿里巴巴重新定义了“开源即竞争”,对抗 Meta、Google 等专有模型。
- 应用前景:Qwen 3.5‑Small 系列为智能客服、移动 AI 助手等提供了高效边缘算力方案,预计将在 2026 年底实现大规模商用。
“我们希望通过开放的模型和完整的工具链,让每一家企业都有能力在自己的业务场景中部署最前沿的生成式 AI。”——Qwen 团队负责人
Qwen 3.5 系列的发布标志着国产开源大模型在规模、效率与部署全链路上实现了同步突破,预示着新一轮竞争即将到来。
本文是对第三方新闻源的主观解读。消息可能出现过时、不准确、歧义或错误的地方,仅供参考使用。点击此处查看消息源。