阿里巴巴发布Qwen 3.5 小型系列模型 实现低算力本地智能

9 阅读2分钟开源

关键技术亮点

  • 原生多模态架构:4B及以上模型不再使用视觉适配器,而是将视觉与文本 token 在同一潜在空间中共同训练,实现更精准的空间推理和 OCR 表现。
  • Scaled RL 强化学习:9B模型在传统 SFT 基础上加入奖励模型,引导模型走出更合乎逻辑的推理路径,显著降低幻觉,提升在 MMLU、GSM8K 等基准上的分数,且推理速度仍优于 70B 级别模型。
  • 低显存优化:0.8B/2B 版本通过稠密 token 训练策略压缩显存需求,使其能够在 4GB 以内的移动芯片上实时运行。

场景与应用

  1. 移动端智能助理:0.8B/2B 版本可嵌入手机、智能手表,实现离线对话、指令执行与本地化内容生成。
  2. 轻量化视觉代理:4B 原生多模态模型支持本地 UI 元素识别、文档结构解析,适配企业内部知识库或嵌入式工业设备。
  3. 边缘推理服务:9B 版本在边缘服务器上提供高质量逻辑推理,满足对隐私敏感的金融、医疗场景,兼顾速度与准确度。

行业意义

Qwen 3.5 系列标志着大模型从“越大越好”向“算力友好、功能完备”转型的关键里程碑。

  • 本地化部署:降低对云算力的依赖,助力数据隐私合规与低成本 AI 落地。
  • 多模态本土化:原生视觉能力让中文文档、表格、图像的本地处理更自然,提升企业定制化解决方案的竞争力。
  • 训练方法创新:Scaled RL 在紧凑模型上实现接近大模型的推理水平,为后续小模型研发提供可复制的路径。

未来展望

随着硬件算力的持续提升和边缘 AI 生态的成熟,Qwen 3.5 可能成为国产 LLM 在移动端和工业边缘的标配。阿里巴巴后续若继续迭代模型规模与训练策略,业界有望看到更高效、更安全的本地 AI 生态链。

本文是对第三方新闻源的主观解读。消息可能出现过时、不准确、歧义或错误的地方,仅供参考使用。点击此处查看消息源。