源Yuan 3.0 Flash基础大模型开源发布
创始人
2025-12-31 19:01:10

IT之家 12 月 31 日消息,浪潮旗下 YuanLab.ai团队 12 月 30 日开源发布源 Yuan 3.0 Flash 多模态基础大模型

Yuan 3.0 Flash 是一款 40B 参数规模的多模态基础大模型,采用稀疏混合专家(MoE)架构,单次推理仅激活约 3.7B 参数。

Yuan 3.0 Flash 提出和采用了强化学习训练方法(RAPO),通过反思抑制奖励机制(RIRM),从训练层面引导模型减少无效反思,在提升推理准确性的同时,大幅压缩了推理过程的 token 消耗,降低算力成本。

Yuan 3.0 Flash 由视觉编码器、语言主干网络以及多模态对齐模块组成

  • 语言主干网络采用局部过滤增强的 Attention 结构(LFA)和混合专家(MoE)结构,在提升注意力精度的同时,降低训练与推理的算力开销;
  • 多模态方面,采用视觉编码器,将视觉信号转化为 token,与语言 token 一起输入到语言主干网络,通过多模态对齐模块实现高效、稳定的跨模态特征对齐;
  • 同时,引入自适应图像分割机制,在支持高分辨率图像理解的同时,降低显存需求及算力开销。

在企业场景的 RAG(ChatRAG)、多模态检索(Docmatix)、多模态表格理解(MMTab)、摘要生成(SummEval)等任务中,Yuan 3.0 Flash 的表现已优于 GPT-5.1

在多模态推理与语言推理评测中,Yuan 3.0 Flash(40B)精度接近 Qwen3-VL235B-A22B(235B)与 DeepSeek-R1-0528(671B),但 token 消耗仅约为其 1/4 ~ 1/2,降低了企业大模型应用成本。

Yuan 3.0 Flash 全面开源,全系列模型参数和代码均可免费下载使用,IT之家附开源地址如下:

相关内容

热门资讯

硅谷程序员扎堆做医美,月供一台... 在硅谷,曾经以“代码能力”为唯一硬通货的程序员们,正悄然掀起一场关于面容的极限优化。从漠视外表的极客...
关于“太占内存”,微信发布最新... 一直以来 不少网友总在吐槽: “微信太占手机的存储空间了” 动辄30、40个G 你有这种感受吗? ...
红星新闻2026新年献词丨聚你... ❏红星新闻 时光的钟摆,正荡向2025年的最后刻度。无论你身处何方,心系何事,请接受我们最诚挚的祝福...
2003年12月30日,“探测... 2003年12月30日凌晨3时6分18秒,西昌卫星发射中心的夜空被一道烈焰划破,“长征二号丙/SM型...
步科股份实现两连板 新产品进一... 上证报中国证券网讯(记者 柴刘斌)12月30日午后,步科股份实现“20cm”涨停,收获两连板,报14...