Multiverse Computing推出免费压缩模型HyperNova 60B,性能媲美Mistral Large 3
•24 阅读•3分钟•开源
LLMMultiverse ComputingHyperNova 60BMistralCompactifAI
Anna Heim••24 阅读•3分钟•开源

关键发布
西班牙初创公司Multiverse Computing在今天通过Hugging Face公开发布了压缩版的HyperNova 60B模型(代号HyperNova 60B 2602),并声明该模型在保持接近原始性能的前提下,将模型体积从原始的约64GB压缩至32GB,免费供开发者下载使用。
模型技术细节
- 压缩技术:采用公司自研的CompactifAI技术,受量子计算启发,利用稀疏化、低秩分解和混合精度等手段实现参数压缩。
- 模型规模:基于OpenAI的gpt‑oss‑120b模型,参数量约为60 B,推理时显存需求约为32 GB。
- 性能表现:官方测试显示,在标准的Zero‑Shot评测中,HyperNova 60B 2602的准确率仅比Mistral Large 3低约1.2%,而在工具调用(tool‑calling)和代理式编码(agentic coding)场景下,延迟降低约30%。
- 开源计划:除了本次发布,Multiverse承诺在2026年内陆续开源更多压缩模型,覆盖文本、代码和多模态任务。
市场竞争与合作
Multiverse 将自己定位为“主权AI解决方案提供商”,已与多家企业和政府机构签订合作协议,包括:
| 客户 | 业务场景 |
|---|---|
| Iberdrola | 能源调度预测 |
| Bosch | 智能制造优化 |
| 加拿大央行 | 金融风险监测 |
此外,公司还获得了阿拉贡地区政府以及西班牙技术转型署(SETT)的支持,去年完成了2.15亿美元的Series B融资。
在竞争格局方面,Multiverse公开称其HyperNova 60B已在多项基准上超越法国独角兽Mistral AI的Mistral Large 3。两家公司在欧洲市场均在扩张,分别在美国、加拿大和欧洲设立研发中心,争夺企业级LLM部署市场。
未来展望
Multiverse正筹划新一轮融资,传闻目标估值超过15亿美元,潜在投资者包括欧洲风险基金和部分主权财富基金。公司计划在未来一年内推出更大规模的压缩模型(如120B级别),并进一步优化对GPU/TPU的兼容性,以降低企业部署成本。
“我们希望通过压缩技术让更多中小企业能够负担得起前沿大模型的算力需求,”Multiverse的首席技术官在发布会上如此表示。
总体来看,HyperNova 60B的免费开放为AI模型的可访问性设立了新标杆,也为欧洲本土AI生态的独立发展提供了重要支撑。
本文是对第三方新闻源的主观解读。消息可能出现过时、不准确、歧义或错误的地方,仅供参考使用。点击此处查看消息源。