
YuanLab推出Yuan 3.0 Ultra,实现千亿参数MoE模型参数削减33%并提升训练效率49%
5月5日,YuanLab AI正式发布开源千亿参数多专家(MoE)基础模型Yuan 3.0 Ultra。该模型通过层自适应专家剪枝(LAEP)将总参数量削减33%,并在预训练阶段提升效率近50%,在企业级多模态检索、长文本推理等基准上超越同类主流模型。

5月5日,YuanLab AI正式发布开源千亿参数多专家(MoE)基础模型Yuan 3.0 Ultra。该模型通过层自适应专家剪枝(LAEP)将总参数量削减33%,并在预训练阶段提升效率近50%,在企业级多模态检索、长文本推理等基准上超越同类主流模型。
Anthropic首席执行官达里奥·阿莫迪在内部备忘中严厉指责OpenAI向美国国防部(DoD)提供的合同内容存在欺骗性,称其所谓安全层仅是形式主义,且无法阻止模型被用于大规模监控和致命自主武器。此举揭示了AI军用合作中的监管盲点,引发业界对模型安全治理的深度担忧。




随着生成式AI从聊天界面向多步骤自治代理演进,非确定性成为制约生产化的核心瓶颈。LangWatch 作为首个开源的评估、追踪与仿真平台,为 LLM 代理提供统一的监控层,帮助开发者在完整执行路径上定位错误、迭代提示并实现合规部署。







































MarkTechPost 今日发布完整教程,展示如何使用开源库 Vaex 在不将数据全部加载到内存的前提下,完成从数据生成、特征工程、聚合统计到模型训练的全链路流水线。该方案在 200 万行合成数据上实现了秒级响应,为大规模分析提供了可落地的实践路径。
阿里巴巴Qwen团队今日推出Qwen 3.5小型系列模型,参数规模从0.8B到9B,专为移动端、IoT和轻量化多模态代理设计,强调在算力受限环境下保持高推理能力。


