IT之家 12 月 31 日消息,浪潮旗下 YuanLab.ai团队 12 月 30 日开源发布源 Yuan 3.0 Flash 多模态基础大模型。
Yuan 3.0 Flash 是一款 40B 参数规模的多模态基础大模型,采用稀疏混合专家(MoE)架构,单次推理仅激活约 3.7B 参数。
Yuan 3.0 Flash 提出和采用了强化学习训练方法(RAPO),通过反思抑制奖励机制(RIRM),从训练层面引导模型减少无效反思,在提升推理准确性的同时,大幅压缩了推理过程的 token 消耗,降低算力成本。
Yuan 3.0 Flash 由视觉编码器、语言主干网络以及多模态对齐模块组成:
在企业场景的 RAG(ChatRAG)、多模态检索(Docmatix)、多模态表格理解(MMTab)、摘要生成(SummEval)等任务中,Yuan 3.0 Flash 的表现已优于 GPT-5.1。
在多模态推理与语言推理评测中,Yuan 3.0 Flash(40B)精度接近 Qwen3-VL235B-A22B(235B)与 DeepSeek-R1-0528(671B),但 token 消耗仅约为其 1/4 ~ 1/2,降低了企业大模型应用成本。
Yuan 3.0 Flash 全面开源,全系列模型参数和代码均可免费下载使用,IT之家附开源地址如下: