小模型指导大模型!田渊栋等爆锤蒸馏:新方法更高效、更透明、更可控
创始人
2025-03-03 06:41:38
0

新智元报道

编辑:KingHZ

【新智元导读】基于连续概念,Meta团队新研究提出了超越「下一个token预测」语言建模新范式。更加重要的是,新方法不仅能增强原有的范式,而且比起知识蒸馏,数据量减少20%,甚至能从小模型提取概念指导更大的模型!

「下一个token预测」(next token prediction,NTP)是大语言模型(LLMs)不断取得突破的核心技术。

但这种依赖tokenization的方法,导致LLM「严重偏科」。

关注AI的可能也知道GPT-4o不会数字母,不知道Strawberray中有几个字母「r」。

为了解决此类问题,最近的研究探讨了超越token级信号的方法,利用更丰富的信息来训练模型。

比如说,一次性预测多个token;在下一个token预测之前增强输入,加入丰富的信号;或用连续的潜在表示替代离散的语言标记,提高推理效率。

这次,受到近期研究发现的启发,来自Meta的研究人员认为稀疏自编码器(Sparse Autoencoders,SAEs)可以捕捉高层次的语义概念,在LLM中有效地隔离出有意义的潜在特征。

由于SAEs是通过稀疏性约束训练,重构模型的隐状态,它促使模型集中关注一组紧凑的概念维度。

这可以突出预训练模型的概念——即支撑模型预测的核心语义方向,同时避免不必要的特征。

论文链接:https://arxiv.org/abs/2502.08524

新研究在多个语言建模基准和预训练模型规模(从百万规模到十亿规模的参数模型)上进行广泛的评估,展示了CoCoMix的有效性。

例如,在应用于1.38B参数模型时,CoCoMix在下一个token预测任务中的表现与传统方法相当,同时减少了21.5%的训练数据量。

此外,CoCoMix在弱监督到强监督场景中表现出显著的提升,其中从小模型中提取的概念甚至可以作为真实标签,用于监督大模型的训练。

最后,通过插入压缩的概念向量,能够在生成过程中探查预测的概念,从而引导和控制模型。

主要方法:CoCoMix

CoCoMix是一种新的LLM预训练框架,通过预测概念并将其混入模型的隐状态中,以提高下一个token预测的准确性。

更高的样本效率,在下一个token预测、知识蒸馏以及插入暂停token等任务中表现优越,同时提高可解释性和可引导性,增强模型的可控性。

连续概念混合(CoCoMix)使用基于连续概念的语言建模框架。具体而言,CoCoMix包含三个步骤来学习和使用潜在概念:

1. 从预训练的SAE中,提取概念并选择显著的概念。

2. LLM从其隐藏状态预测这些概念。

3. 一旦预测出多个概念,就将它们压缩成一个单一的「连续概念」,并将其「混合」到LLM隐藏状态中。

图1:CoCoMix的概览。

新研究证明了CoCoMix具有更高的样本效率,并且优于标准的下一个 token预测和知识蒸馏基线。

实验结果

CoCoMix在性能上始终优于下一个token预测和知识蒸馏。

此外,新研究表明CoCoMix可以实现弱监督到强监督的转换,其中 从较小模型中提取的概念可以指导更强(或更大)的学生模型

由于模型经过训练可以预测其隐藏状态中的概念,可以通过检查概念预测来分析它关注哪些概念。通过放大或抑制预测的概念,我们还可以控制模型的输出生成。

总而言之,CoCoMix效率更高,并且在不同模型规模下都优于下一个token预测,同时还引入了可解释性。

具体而言,通过研究以下问题,对CoCoMix进行了实证评估:

  • CoCoMix能否提高LLM预训练中下一个token预测的性能?(图2和图3)

  • 与其他知识蒸馏方法相比,CoCoMix从弱监督到强监督设置中是否表现出改进?(表1和图4)

  • CoCoMix是否引入了模型的可解释性和可操纵性?(图5)

  • CoCoMix提出的各个组件对性能贡献如何?(图6)

提高NTP性能

图2展示了CoCoMix与NTP(Next Token Prediction,下一个token预测)在不同训练检查点(checkpoint)的性能比较。每个模型包含总共1.38B个参数,都在OpenWebText数据集上进行训练。对于CoCoMix,概念是从一个1.24亿大小的模型(比基础模型小10倍)中提取的。

显示了以下方面的改进:(a)验证困惑度,(b)在LAMBADA、WikiText-103上的平均困惑度,以及(c)在HellaSwag、PIQA、SIQA、Arc-Easy和WinoGrande上的平均准确率。

图3展示了CoCoMix与NTP在不同模型大小下的性能比较。考虑了各种模型大小,包括69M、386M和1.38B个参数,并在200B个OpenWebText的 token上进行训练。评估了模型在OpenWebText验证困惑度以及下游数据集LAMBADA、WikiText-103、HellaSwag、PIQA、SIQA、Arc-Easy和WinoGrande上的表现。

与知识蒸馏比较

表1展示了CoCoMix与下一token预测(NTP)与知识蒸馏(KD)的对比。报告了在OpenWebText(OWT)训练集上的表现,以及在下游任务中的表现。训练了三种不同规模的模型,其中124M模型作为教师模型。所有模型均在从OpenWebText数据集采样的20B个 token上进行训练。加粗部分表示最佳结果。

图4展示了CoCoMix与知识蒸馏(KD)的比较。对于弱监督到强监督设置,训练一个386M的模型,其中KD的教师(或CoCoMix的概念提取器)是一个124M大小的模型:报告了(a)在OpenWebText、LAMABADA和WikiText上的平均困惑度,以及(b)在HellaSwag、PIQA、SIQA、Arc-Easy和WinoGrande数据集上的平均准确率。对于(c)分布偏移设置,在OpenWebMath(一个数学特定的预训练语料库)上训练所有方法。

可解释性和可操纵性

图5是概念引导效果的定性说明。CoCoMix和GPT2模型分别是350M和124M参数的Transformer,训练数据集为OpenWebText。对于CoCoMix,通过调整预测的概念logit值z来进行操作,而对于GPT2,通过增加特定概念索引的激活值来调整SAE概念空间c。这展示了有针对性的概念引导对各自模型输出的影响。

各组件贡献

图6 对CoCoMix的分析:

(a) 归因分数在选择概念中的有效性。

(b) 概念预测与直接隐藏状态预测的比较(即,用连续损失预测隐藏状态,而不是用SAE离散化隐藏状态)。

(c) 压缩权重的稀疏性。

(d) 通过分析概念预测和混合的贡献进行的组件分析。

(e) 通过比较将概念向量添加到原始隐藏状态和混合(将概念向量与token隐藏表示交替)来选择概念条件设定的设计。

(f) CoCoMix与暂停token(即添加可学习的tokens)的比较。使用了一个69M的transformer,并且使用来自OpenWebText数据集的20B个tokens进行训练。

另外,值得一提是,作者中有多位华人,特别是「网红科学家」田渊栋也参与了本次论文工作。

更为详细的实验设置,请参阅原文。

参考资料:

https://arxiv.org/pdf/2502.08524

相关内容

热门资讯

AI教父呼吁将马斯克逐出皇家学... 3月3日消息,据报道,诺贝尔物理学奖和图灵奖得主、被誉为“AI教父”的英国皇家学会院士Geoffre...
易控智驾发布矿巡V2.0产品 中证报中证网讯(记者 王辉)3月1日,“易路相伴 智约共赢”无人驾驶矿用车规模化应用成果发布会在海南...
阿里巴巴预约参观|北京阿里巴巴... 在数字经济蓬勃发展的时代,阿里巴巴作为全球领先的互联网科技企业,凭借其在电商、云计算、人工智能、大数...
智慧园区管理小程序,多功能模块 随着智慧化城市建设的不断推进,园区管理也迎来了全新的变革。作为连接技术与服务的重要桥梁,智慧园区管理...
三峡电站智能设备“上新” 中新网宜昌3月3日电 (唐东军 田娜 胡翔)三峡集团3日发布消息,国内首个巨型水力发电机组智能音频巡...
不必过于焦虑被AI替代 随着DeepSeek一夜爆红,人工智能正逐步渗透到生活工作的方方面面。最近,一张各职业被AI取代难易...
DeepSeek产业聚光灯 |... 观点网卖显卡的英伟达NVIDIA一度超越苹果、微软,成为世界市值最高的公司,这是新时期世界对AI算力...
吞一颗“胶囊” 就能完成肠胃检... 转自:嘉兴日报 ■记者 周佩佳 通讯员 徐奕颖 葛佳慧 本报讯 浙江省银发经济高质量发展产业园日前...
海外资本围猎中国最牛机器人创业... 文 | 闻道商业 一、草根逆袭:座谈会最年轻企业家 Deekseek燃爆了全球,但时下最火的创业者...
人工智能:自主宣言-埃森哲 报告指出,人工智能正从自动化向转型发展,其自主性的实现依赖于信任的建立。报告探讨了人工智能在多个领域...
小模型打败大模型?患者挑战专家... 在优质医疗资源稀缺的背景下,AI大模型的介入无疑正在改变传统的行业竞争格局和医患关系。 本月以来,多...
奥特维新注册《奥特维光伏玻璃柔... 证券之星消息,近日奥特维(688516)新注册了《奥特维光伏玻璃柔性网格铺贴机操作系统软件V1.0》...
2025世界顶尖科学家协会奖正... 北京时间2025年3月1日,2025世界顶尖科学家协会奖(WLA Prize, 中文简称“顶科协奖”...
洁特生物获得实用新型专利授权:... 证券之星消息,根据天眼查APP数据显示洁特生物(688026)新获得一项实用新型专利授权,专利名为“...
中国天眼观测到宇宙极端爆炸起源... 现在我们知道,地球是太阳系中的一颗行星,在太阳系中一共有八大行星,它们分别是水星、金星、地球、火星、...
为什么“哎哟”不需要翻译 科普|为什么“哎哟”不需要翻译 新华社北京3月2日电(记者李雯)法国研究人员近日在《科学美国人》月刊...
固态电池爆发!核心龙头有望一年... 各位投资者请注意! 在Deep Seek大模型和人形机器人板块调整期间,固态电池突然崛起,成为市场焦...
人工智能大大提升乳腺癌筛查工作... 转自:中国科协 近日,《柳叶刀-数字医疗》发表了一项研究称,全球首个评估AI辅助乳腺钼靶X线摄影检查...
荣耀宣布:投入100亿美元发力... 据媒体报道,荣耀CEO李健在MWC2025首次公开亮相,并发布荣耀阿尔法战略,宣布将从智能手机制造商...
亳州供电:首次完成500千伏变... 2月25日15时00分,在亳州供电公司监控大厅内,监控人员向华东网调汇报,“500千伏伯阳站2号主变...