Sarvam发布30B/105B开源大模型 助力印度本土AI生态
•29 阅读•4分钟•开源
NVIDIAGemmaGPT-OSS-120BSarvam
Jagmeet Singh••29 阅读•4分钟•开源

关键亮点
- 两款主力模型:30 B参数的Sarvam‑30B和105 B参数的Sarvam‑105B,均采用Mixture‑of‑Experts(MoE)技术,仅激活部分参数以降低算力成本。
- 超长上下文:30 B模型支持32,000 token,105 B模型支持128,000 token,满足从即时对话到复杂多步推理的需求。
- 全栈生态:同步发布文本转语音(TTS)、语音转文本(STT)以及文档解析视觉模型,形成端到端的多模态解决方案。
- 开源承诺:Sarvam计划公开30 B和105 B模型的权重,虽未明确是否开放训练代码和数据集,但已表态推动社区协同迭代。
模型规格
-
Sarvam‑30B
- 参数量:30 B
- 训练数据:约16 万亿 token,覆盖多语言文本
- 目标场景:实时对话、智能客服、轻量级应用
- 对标模型:Google Gemma 27B、OpenAI GPT‑OSS‑20B
-
Sarvam‑105B
- 参数量:105 B(MoE)
- 训练数据:数万亿 token,重点覆盖印度本土语言
- 目标场景:多步推理、企业级问答、长文档分析
- 对标模型:OpenAI GPT‑OSS‑120B、阿里巴巴 Qwen‑3‑Next‑80B
市场与竞争
Sarvam的发布正逢印度政府加速AI本土化的政策窗口。IndiaAI Mission提供算力支持,数据中心运营商Yotta提供基础设施,NVIDIA提供GPU技术支撑。相比美国和中国的巨头模型,Sarvam更注重成本效益和对印度语言的深度适配,旨在抢占本土企业和政府部门的AI采购份额。
生态与合作
- 开源社区:Sarvam计划在Hugging Face上发布模型权重,邀请开发者贡献LoRA适配、微调脚本等。
- 企业产品:推出“Sarvam for Work”系列,包括代码专用模型和企业协作工具;以及对话代理平台“Samvaad”,面向印度本土企业提供可定制的AI助理。
- 投资背景:自2023年成立以来已获逾5000万美元融资,背后有Lightspeed Venture Partners、Khosla Ventures以及Peak XV Partners(前Sequoia Capital India)等知名机构。
前景展望
Sarvam明确表示,未来将继续在模型规模与实际任务价值之间寻找平衡,避免盲目追求参数量。随着算力成本的下降和开源生态的成熟,Sarvam有望在印度乃至南亚地区形成自己的大模型生态链,提供从底层模型到行业解决方案的一站式服务。若其开源计划顺利落地,将为本土开发者提供高质量的国产模型,降低对国外API的依赖,加速AI在教育、金融、医疗等关键领域的落地。
“我们不想盲目扩张,而是要理解真正需要在规模上解决的任务,”Sarvam联合创始人Pratyush Kumar在发布会上如是说。
整体来看,Sarvam的这波布局既是对全球大模型竞争格局的回应,也是印度AI自主路线的实质性落地,值得行业持续关注。
本文是对第三方新闻源的主观解读。消息可能出现过时、不准确、歧义或错误的地方,仅供参考使用。点击此处查看消息源。