Arcee AI发布4000亿参数Trinity模型 挑战Meta Llama 成为美国最大开源大模型
•27 阅读•3分钟•开源
开源Arcee AITrinityLlama
Julie Bort••27 阅读•3分钟•开源

背景与意义
在大模型竞争日益激烈、核心技术高度集中于几大科技巨头的格局下,Arcee AI 这家只有30人的美国初创公司于2026年1月28日宣布推出 Trinity——一款拥有4000亿参数、完全开源(Apache 许可证)的通用基础模型。公司创始人兼CEO Mark McQuade 表示,Trinity 旨在为美国企业和科研机构提供“永久开放、前沿级别”的替代方案,减少对中国开源模型的依赖。
模型概览
- 名称:Trinity(提供 Large Preview、Large Base、TrueBase 三种版本)
- 规模:400 B 参数,是迄今为止美国公司发布的最大开源模型之一
- 定位:主要面向开发者、学术研究以及企业级定制,支持文本生成,后续将加入视觉和语音功能
- 授权:Apache 2.0,保证模型、权重及衍生代码完全自由使用
训练规模与成本
Arcee AI 在六个月内完成了模型训练,投入约 2000 万美元,使用 2048 块 Nvidia Blackwell B300 GPU。整个过程耗时约 180 天,总算力约 2.0 ExaFLOPs。公司迄今已融资约 5000 万美元,其中大部分用于硬件采购和人才招聘。
性能与基准
TechCrunch 引用的内部基准显示,Trinity 在编码、数学、常识推理等任务上与 Meta 的 Llama 4 Maverick(同样 400 B)持平,部分细分测试甚至略有超越。由于目前仍是 文本‑only 版本,模型在多模态任务上暂不具备竞争力,但团队已在研发视觉模型,计划在今年下半年推出。
商业化与路线图
- API 服务:计划在六周内上线托管版,采用竞争性定价,Trinity‑Mini 的使用费为 $0.045 / 1 K token,免费额度有限。
- 后训练与定制:继续为企业提供模型微调、强化学习等增值服务。
- 长期愿景:通过持续开源和社区合作,打造美国本土的“永久开放”前沿模型生态,挑战现有的以商业许可为主的模型格局。
Arcee AI 的快速迭代与大规模训练展示了小团队在资源受限情况下仍能实现高水平技术突破。若 Trinity 能在生态建设、社区支持和多模态扩展上保持势头,未来有望在开源大模型赛道上形成有力竞争。
“要赢得开发者的心,必须提供最好的开源权重模型。”——Arcee AI 首席技术官 Lucas Atkins
本文是对第三方新闻源的主观解读。消息可能出现过时、不准确、歧义或错误的地方,仅供参考使用。点击此处查看消息源。