Arcee发布400B稀疏MoE模型,刷新开源大模型规模
•27 阅读•4分钟•开源
MoE月之暗面KimiArceeLiquidAI
Florian Brand••27 阅读•4分钟•开源

本期概览
《Open Artifacts》第18期聚焦本月最具价值的开源模型。报告指出,虽然2024年整体发布节奏放缓,但Arcee、LiquidAI、Moonshot等公司相继推出重量级模型,进一步丰富了社区的选择空间,也让业界对即将到来的大型模型(如DeepSeek V4)充满期待。
重点模型
-
Arcee‑Trinity‑Large‑Preview
- 参数规模:总计400B,稀疏MoE结构,实际激活13B参数。
- 训练背景:美国公司自行研发,提供两套基线模型(预退火版与训练后版)。
- 亮点:技术报告详细披露稀疏路由机制与硬件优化方案,适合算力受限的研究者进行微调。
-
LiquidAI LFM2.5‑1.2B‑Instruct
- 参数规模:1.2B(含指令微调),训练数据达28T token,较原始2.0系列提升显著。
- 性能对比:在内部评测中接近 Qwen3‑4B‑2507 Instruct 的质量,却仅为其三分之一大小。对比 Qwen3‑1.6B,几乎每次均获更好评价。
- 发行形式:同步发布日文版、视觉模型与音频模型,形成完整多模态生态。
-
Moonshot Kimi‑K2.5
- 参数规模:2.5B,持续预训练 15T token。
- 多模态能力:支持文本、图像与音频输入,重点强化编码与 agent 能力。
- 市场反馈:部分用户在推特上已将其替代 Claude 4.5 Opus 用于低成本任务,虽在写作表现上略逊,但在代码生成与工具使用上优势明显。
-
GLM‑4.7‑Flash (zai‑org)
- 参数规模:30B 总参数,3B 激活,定位为轻量化 MoE。
- 适用场景:针对资源受限的边缘部署提供高效推理。
-
K2‑Think‑V2 (LLM360)
- 特色:开放式推理模型,基于前代模型进一步提升链式思考能力。
行业影响
- 算力与成本的再平衡:Arcee 的超大规模稀疏 MoE 展示了在同等算力下实现更高参数规模的可行路径,为中小实验室提供了新思路。
- 模型生态的细分化:LiquidAI 通过极致小模型实现了与大模型相近的指令理解能力,说明“体积不等于能力”,有助于降低部署门槛。
- 多模态竞争加剧:Moonshot 将 Kimi‑K2.5 定位为兼顾文本、图像与音频的全能模型,预示着下一波开源大模型将更注重跨模态协同。
- 开源竞争格局:随着 Arcee、LiquidAI、Moonshot 等公司持续投放高质量模型,传统闭源巨头(如 OpenAI、Google)在开源生态的压力将进一步上升。
"开源模型的多样化正推动整个行业进入一个‘模型即服务’的新时代,研究者可以根据具体任务自由选型,而不必被单一巨头锁定。" – 本期编辑精选
展望
展望下月,业界普遍预计 DeepSeek V4 将带来更强的跨语言与跨模态能力,Claude Sonnet 5 亦可能在本周末正式发布。开源社区的快速迭代正促使商业化产品加速落地,企业在选型时需兼顾模型性能、算力成本以及社区支持力度。
本文是对第三方新闻源的主观解读。消息可能出现过时、不准确、歧义或错误的地方,仅供参考使用。点击此处查看消息源。