“批判性微调”面世,8个英伟达H100训练模型1小时,性能媲美DeepSeek-R1
创始人
2025-03-10 04:01:57
0

8 个 H100 显卡训练 1 小时,即可让所训练的 Qwen2.5-Math-CFT 模型媲美 DeepSeek-R1 的性能。背后“秘诀”只有一个:采用由加拿大滑铁卢大学团队和美国卡内基梅隆大学团队提出的批判性微调(CFT,Critique Fine-Tuning)模型优化技术。

DeepSeek-R1 是采用强化学习方法打造的模型,而 Qwen2.5-Math-CFT 的计算资源消耗量,仅有 DeepSeek-R1 的 1/140。

当在包括 MATH 和 AIME24 在内的六个数学基准上进行评估时,批判性微调训练的模型始终比最佳监督微调训练的模型平均高出 4%-10%。同时,批判性微调仅需要 50K 的训练样本,而监督微调需要 2M+的训练样本。

图 | 批判性微调(来源:arXiv)

也就是说,批判性微调使用更少的训练数据实现了更快的收敛,因此对于开发数学推理模型来说它是一种更加有效的方法。虽然像 GPT-4o 这样的前沿闭源模型仍然保持着性能领先,但本次研究表明利用批判性微调,可以帮助较小的模型以更少的资源实现更强的性能。

与此同时,即使没有传统的指令调优,批判性微调训练的模型也可以有效地遵循指令,这挑战了监督微调或强化学习必须遵循指令的传统观念。因此,研究人员认为批判性微调是一种新的范式,它从根本上重新构想了语言模型到底该如何从指令数据中学习。

不同于侧重响应模仿的监督微调(SFT,Supervised Fine-Tuning),批判性微调能让模型学会批判性地分析嘈杂响应,而不是简单地模仿正确的响应。

以人类学习过程中的“批判思考”为灵感

对于监督微调来说,它能让模型模仿给定指令的注释响应。但是,如果你仔细观察就会发现,我们人类学习过程往往会伴随着批判性思维。

基于这一启发,研究人员提出了批判性微调,它能够鼓励模型进行更深入的分析和理解,而这些特质通常会被监督微调所忽视。

为了验证批判性微调的有效性,研究人员构建了几个微调数据集。与此同时,大多数实验都是基于 WebInstruct——这是一个从在线教育资源和智力竞赛网站收集的教学数据集。

不同于来自数学竞赛和其他比赛的数据集,WebInstruct 数据集的涵盖种类较多,包括数学(65%)、物理(8%)、化学(4%)、商业(10%)、人文(4%)等。

WebInstruct 中的响应由大模型进行提取和完善,由于缺乏验证或质量控制,它们很容易受到噪音的影响。因此,研究人员从 WebInstruct 中精选了以下子集。

第一个子集是 WebInstruct SFT,即直接从原始 WebInstructs 数据集中采样的 50K 子集,该子集的错误率高于 50%。

第二个子集是 WebInstruct-verified,研究人员采用了 WebInstructs 的样本,与此同时保留了前 50K 个样本作为“已验证”的监督微调数据。

第三个子集是 WebInstruct-GPT-4o,这是一个 50K 子集,它复用了 WebInstruct-SFT 中的问题,但是使用 GPT-4o-1120 生成的答案替换了原答案。

第四个子集是 WebInstruct-CFT,这是一个从 WebInstruct-SFT 派生的 50K 子集。该子集中大约 56% 的回复被判定为“正确”,其余的则被认为是“错误的”。尽管包含一些由 GPT-4o 引入的批判错误,但该数据集的质量与 WebInstruct-GPT-4o 相当。

第五个子集是 WebInstruct CFT Tiny,这是 WebInstruct-CFT 的一个较小版本,仅包含 4K 示例。

研究人员将批判性微调数据集与现有的监督微调数据集进行比较。如图所示,研究人员的数据集涵盖了更广泛的主题,同时规模要小得多,这突出了这些数据集在提高大模型推理能力方面的效率。

(来源:arXiv)

除了 WebInstruct,研究人员还综合了 MetaMathQA 和 NuminaMath 等其他数据集,并从每个数据集中随机抽取 50K 个样本,以及使用 GPT-4o 针对原始响应进行评价。然后,研究人员将批判性微调用于这些数据集,以证明本次方法在其他数据集上的通用性。

只需在 8 个 H100 上训练 1 小时

在标准数学推理能力验证上,研究人员评估了 MATH、Minerva MATH 和 GSM8K。为了评估更具挑战性的竞赛级数学成绩,专门纳入了美国邀请数学考试的 AIME 2024、美国数学竞赛的 AMC 2023 以及包含各种难度级别的数学奥林匹克问题的 OlympiadBench。

通过使用用于数学定理理解的 TheoremQA、涵盖数理化等的 MMLU-Pro 以及用于推理复杂问题的 GPQA,研究人员进一步地将评估扩展到 STEM 推理能力上,并通过实验评估了三种不同的监督微调设置和一种批判性微调设置。

对于监督微调,研究人员主要针对原始噪声响应进行直接训练,并开展经过 GPT-4o 验证的响应训练,以及针对 GPT-4o 产生的响应进行训练。

对于批判性微调,研究人员使用精选的批判性微调数据集来训练模型。通过使用 MATH500 作为验证集,并在针对整个数据集进行 1 个 epoch 的训练之后,选择出来表现最佳的检查点。

在所有实验中,超参数始终保持一致,学习率为 5e-6,余弦衰减学习时间表的预热比为 0.1,全局 batch 大小为 512。(注:学习率,是一个用于控制模型在训练过程中参数更新步长的数值。)

为了评估批判性微调的有效性,研究人员使用数学推理基准,在三个 7B 基础模型上将其与各种监督微调方法进行比较。

图 | 不同基础模型和不同方法的综合结果(来源:arXiv)

所使用的三个 7B 基础模型分别是:DeepSeek-Math-7B、Qwen2.5-7B 和 Qwen2.5 Math-7B。

结果表明,Qwen2.5-Math-7B 的基础版本在基准测试中的平均准确率为 37.8%,当使用批判性微调进行增强时它达到了最佳性能,平均准确率为 57.1%。

值得注意的是,批判性微调在不同模型中始终优于所有监督微调基线。在 DeepSeek-Math7B 上,它比监督微调 GPT-4o 实现了 3.5% 的绝对改进。

在 Qwen2.5-7B 上,批判性微调比监督微调有着 10.4% 的实质性改善。在 Qwen2.5-Math-7B 上,批判性微调比 GPT-4o 的监督微调基线高出 6.7%。

(来源:arXiv)

上图展示了 Qwen2.5-Math-7B 基于不同方法的训练动态。其中,批判性微调在第 30 步左右表现出更快的收敛速度,并在整个训练过程中拥有更高的性能。

同时,批判性微调在 MATH 上的准确率约为 80%,而 SFT-G 的准确率为 70%,SFT-V 的准确率为 60%。在 Minerva-Math 上,批判性微调的准确率约为 40%,而两种监督微调变体即 SFT-G 和 SFT-V 的准确率均为 20%。

与此同时,研究人员将其所使用的性能最佳的批判性微调模型,与其他不同参数规模的对标模型进行比较。同时,还扩大了评估基准以便涵盖更加广泛的 STEM 主题。

(来源:arXiv)

结果显示:研究人员的 Qwen2.5-Math-7B-CFT 在 7B 模型中实现了 48.1% 的最高平均性能,这一性能远远优于其他专业数学模型。

同时,Qwen2.5-Math-7B-CFT 的训练数据仅为 50K 个样本。而 AceMathQwen2.5-Math 使用 2.3M 个样本,Qwen2.5-Math-7BInstruct 使用 2.5M 个样本,这说明批判性微调的数据效率非常高。

如下表所示,研究人员还针对 Qwen2.5-32B-Instruct-CFT 和 Sky-T1-32B Preview 加以详细比较。

(来源:arXiv)

结果显示:批判性微调最显著的优势在于能够提高数据效率。与 SkyT1-32B-Preview 的 17K 样本相比,Qwen2.5-32B-Instruct-CFT 仅使用 4K 训练样本即可实现最佳性能。

与此同时,Qwen2.5-32B-Instruct-CFT 的训练数据仅为前者的四分之一,这证明了批判性微调在没有长思维链的情况下,能够从更少的样本中学习的有效性。

同时,研究人员的模型在 GPQA 上达到了 52.5% 的准确率,超过了 Sky-T1 的 49.5%。在 TheoremQA 上,它显示出与 Sky-T1 相当的性能。对于 AMC23,Sky-T1 能够实现 62.5% 的准确率,而研究人员的模型准确率达到 77.5%。

此外,研究人员还将采用批判性微调训练的模型,与采用强化学习训练的模型加以比较。需要说明的是:这一系列比较均以 Qwen2.5-Math-7B-base 作为初始化模型。

(来源:arXiv)

此前,有研究表明强化学习可以显著提高大模型的推理能力。为此,研究人员与 DeepSeek-R1 的复制体 SimpleRL 进行比较。并将完全基于强化学习打造的模型 SimpleRL-Zero、和基于“Distill+强化学习”打造的模型 SimpleRL 作为对标,需要说明的是 SimpleRL-Zero 和 SimpleRL 都需要在 32 个 H100 上进行 1.5 天的训练。相比之下,采用批判性微调的方法模型只需要在 8 个 H100 上训练 1 小时。

此外,批判性微调不需要较长的解码长度,从而能够提高效率。正因此,批判性微调可以将 Qwen2.5-Math-7B 提高到与 SimpleRL 相同的水平。在 AMC23 和 Minverva Math 等多个基准测试中,批判性微调训练的模型的性能明显优于 SimpleRL。

总的来说,批判性微调在提高语言模型训练的效率和效果上迈出了重要一步,在降低计算资源和数据需求的同时,还有望提高模型的推理能力。

而 GPQA 和 TheoremQA 等基准测试的卓越性能,证明批判性微调不仅能让数学推理受益,还能扩展到更广泛的 STEM 领域。

研究人员也表示,这一成果为提高语言模型能力开辟了新方向,假如将批判性微调与监督微调、强化学习等其他训练范式相结合,则能被扩展用于打造多模态模型。

参考资料:

1.https://arxiv.org/pdf/2501.17703

排版:希幔

相关内容

热门资讯

带你了解斗牛房卡多少钱一张,金... gV0MlvZ苹果的秋季新品发布会已经定档于北京时间的9月13日。这次发布会上“官宣"的产品中,不仅...
玩家实测牛牛房卡最低价格,牛牛... Br2cGKq因此整个手机看起来非常的好看。在参数方面,据悉该机采用了5000万像素大底主摄+320...
实测分享牛牛房卡哪家便宜,微信... Ui从核心配置来看,这款OPPO Reno9手机搭载了高通骁龙778G处理器,采用了更先进的6nm工...
科技通报斗牛房卡批发价,正规斗... 5IxR1W今年的手机将采用具有触觉反馈的新型固态按钮,类似于 iPhone 7 中引入的主屏幕按钮...
科技通报牛牛房卡专卖店,牛牛房... 5JK在参数上,据悉该机搭载了5000万像素1英寸大底主摄传感器+2000万像素超广角+1200万像...
推荐一款牛牛科技房卡多少钱一张... mv5NWF苹果iPhone 14手机即将进入量产阶段。有消息称,富士康最大的iPhone手机代工厂...
推荐一款牛牛房卡链接怎么买,金... 7gjnzVt从相机配置来看,这款OPPO Reno10新机采用了后置四摄的设计方案,分别由一英寸大...
重大发现金花房卡链接,斗牛房卡... x同时新的iPhone将迎来全新的iOS 16系统。iOS16系统升级了交互功能,并且升级更新了桌面...
玩家实测金花房卡怎么买游戏,牛... 6t8苹果的秋季新品发布会已经定档于北京时间的9月13日。这次发布会上“官宣"的产品中,不仅有热度最...
重大通报牛牛卖房卡多少钱一张,... 7rUsOjU8更高档的一款华为P60 Pro其实配置相比华为P60的区别不大,绝大多数配置都一模一...
87周报:三星XR头显或将第三... 本周(3.3-3.9)热点:三星XR头显或将第三季度上市,价格接近苹果Vision Pro;俄亥俄州...
重大来袭正规房卡链接在哪购买,... BZGTLJ更高档的一款华为P60 Pro其实配置相比华为P60的区别不大,绝大多数配置都一模一样,...
科技通报牛牛房卡批发平台,微信... 5C7FFk因此在高通骁龙7+ Gen2的加持下,该机的核心性能将会非常的极致。并且该机配备了410...
一分钟揭秘金花房卡多少钱一张,... KTPCI摩托罗拉X50mini秀肌肉!在外观设计方面,据曝光的概念图显示,这款摩托罗拉X50min...
我来教你牛牛房卡批发,金花房卡... V在血雨腥风的手机市场,一款产品要想存活下来,就一定要有差异化的产品设计。摩托罗拉手机是一个大家都并...
重大通报战神牛牛房卡批发价,房... v从外观屏幕来看,这款OPPO Reno9手机采用了一块6.7英寸的全面屏设计,像素分辨率为2412...
我来告诉你微信金花房卡怎么弄,... 4因此在高通骁龙7+ Gen2的加持下,该机的核心性能将会非常的极致。并且该机配备了4100mAh电...
科技通报天九大厅房卡多少钱一张... 0pu1D9liPhone16Pro这次的主要卖点,集中在屏幕上的体验和后置相机模组的设计,这两个设...
玩家实测牛牛房卡批发平台,斗牛... 5ifhb关键是苹果手机在市场中立足了如此久的时间,按理来说一些功能或者是规划都非常详细,然而从实际...
我来告诉你微信小程序斗牛叫什么... rjg不过新机还未确定发布时间,现在想要换手机的用户,可以看看这款OPPO Reno9手机,是一款才...