科研数据不再碎片化!一张可计算图,连起整个科研世界
创始人
2026-03-24 20:24:34

新智元报道

编辑:LRST

【新智元导读】UIUC研究团队打造ResearchArcade,将ArXiv论文、OpenReview评审、图表代码等碎片数据连接成动态知识图谱。模型可直接学习引用关系、修改轨迹与审稿互动,让AI更好辅助科研写作、修订与预测,为下一代科研智能体奠定统一数据基础。

在学术科研的过程中,研究者需要面对形态各异的数据来源:我们从ArXiv获取最新论文以追踪学术前沿,从 OpenReview 的开放评审中学习 Rebuttal 的技巧……

随着科研人员越来越多地借助机器学习(如LLM、GNN等)来辅助各类研究任务,一个关键问题随之浮现:

「我们是否能建立一个统一的数据接口,来支持不同学术任务中机器学习模型的开发?」

解决这一问题,将为Specialized Research Agents的发展奠定基础,促进auto- research的实现,也让我们更进一步地迈向让AGI真正理解科研与知识的奥秘的新阶段。

近日,伊利诺伊大学厄巴纳–香槟分校(UIUC) Jiaxuan You教授团队发布了新作,提出了基于图结构的统一科研数据接口,收集并处理了形式各异的科研数据,以辅助不同机器学习模型在各种科研任务上的训练,展望利用AI高效辅助科研的未来。

论文链接:https://arxiv.org/pdf/2511.22036

研究动机

痛点一:数据分散在多个平台,科研语义被割裂

研究一篇文章时,我们常常:

  • 在ArXiv找相关论文(内容、图表、引用)

  • 在OpenReview看审稿意见、看rebuttal、看版本修改

  • 在GitHub或附录里找代码、找实验细节

  • 在DBLP/Google Scholar看作者与引用网络

平台和平台之间缺少统一的结构化连接。模型拿到的往往只是一段段拼接好的,很难对平台间的跨源关系做建模。

痛点二:图表/段落/引用这些「高价值结构」,长期被当作噪声处理

论文里最有信息密度的内容,经常不是摘要,而是:方法流程图、实验表格、ablation与结果对比、对于前人工作的引用。

但传统数据集与基准常常把这些「结构」压扁成纯文本,导致模型无法接触到「论文内部的组织逻辑」。

痛点三:科研是「演化过程」,但我们常把它当成「静态快照」

科研不是一次性写完的。尤其在顶会投稿场景里,论文会经历:reviewer评论、rebuttal、revision(多轮修改)

这些是「科研互动」和「论文进化」的核心信号,但在很多数据里它们要么缺失,要么只是散落文本。

ResearchArcade

将科研世界模拟成一张动态图

研究人员提出的ResearchArcade是一个基于图结构的数据接口,连接了多个学术数据源,统一了学术任务定义,并支持广泛的机器学习模型的训练。

ResearchArcade利用多表格格式以图的结构去组织来自不同来源的数据,包括ArXiv的学术语料库和OpenReview的同行评审,也储存多模态信息(如图形和表格)。

同时ResearchArcade还保留了论文自身前后修改的版本信息以及不同论文的发表时间,支持论文修订以及更广泛的研究趋势的研究。更重要地,表格管理数据的方式便于图的动态扩展,一个新的数据个体的加入和在对应表格中加一行是一样的,ResearchArcade支持每日的不断添加ArXiv上更新的文章。

具体而言,ResearchArcade有四个核心特征:

  • Multi-source:它把 ArXiv 与 OpenReview 关联在一起

  • Multimodality:它不只处理文字,还处理图片和表格

  • Heterogeneity:它用图结构保存异质的关系

  • Dynamic:它把时间与版本变化也存进来

它把数据组织成表格的形式,其中包括节点表(比如 paper/author/paragraph/figure/table/review/revision),和边表(比如 authorship、citation、paragraph-to-figure/table、review-to-revision 等),使得数据库到异构图的转换更加直接。

除此之外,我们还支持SQL,CSV,JSON格式的数据导入导出,这样既可以把它当作结构化数据库来使用,支持LLM的训练,也可以无缝转成异构图来训练 GNN 这样的图模型。

学术任务怎么统一定义?

「两步范式」很关键

ResearchArcade用两步把各式学术任务统一成同一个范式,便于任务的定义以及数据的调用:

  • Identify Target Entity(找目标实体):你要预测/生成的东西对应图里的哪个节点或边?

  • Retrieve Neighborhood(取邻域子图):围绕目标实体,取多跳邻域,形成一个任务输入子图

这件事看起来简单,但它直接解决了「每个科研任务都要重写数据管线」的经典问题。

以后你想加新任务,不需要推倒重来,只要

  • 换一个target(比如 review节点、revision节点、citation边)

  • 换一种neighborhood(取哪些关系、多大hops)

  • 换一种输出形式(分类/排序/生成)

任务就能在同一张图上跑起来。

规模与覆盖面

对于ArXiv部分,ResearchArcade收集了66,918篇ArXiv论文,跨11个科学领域,并进一步拆到更细粒度:

包含569,501个section、8,014,095个paragraph、876,636张figure、324,648个table,并且捕捉它们之间的连接关系 。

同时它支持持续爬取更新(可以按周/按日更新),保证数据实时更新,反应最新科研热点 。

对于OpenReview部分,它收集了OpenReview上来自ICLR, NeurIPS, ICML, and EMNLP来自189,038位作者的 57,278篇投稿,以及884,875 条review与 54,467次rebuttal/revision过程中的修改记录。除此之外,ResearchArcade把OpenReview投稿与对应的ArXiv论文按标题匹配相连接,最终有25,969篇(约45.34%)成功对齐 。

ResearchArcade到底能做什么?

ResearchArcade在论文里定义并实验了六个任务,覆盖预测与生成两大范式:

1)引用预测(Citation Prediction)

给定某段 paragraph 以及论文内部结构与已引用信息,让模型预测:这段话最应该引用哪篇论文。

2)段落生成(Paragraph Generation)

给定上下文段落、引用的图表、引用的文献等,让模型补全缺失段落内容。

3)修改定位(Revision Retrieval)

给定 reviewer 评论与原论文段落,让模型找出:哪些段落会被改、改在哪里。

4)修改生成(Revision Generation)

给定原段落 + reviewer 意见,让模型生成一个更好的 revised 段落。

5)录用预测(Acceptance Prediction)

把历史年份论文与其结构/模态信息作为训练信号,预测未来年份论文是否会被 accept。

6)Rebuttal生成(Rebuttal Generation)

给定 reviewer 评论、论文相关段落以及图表信息,让模型生成 rebuttal 回复。

同时,ResearchArcade 在论文中还列了一些「未来可扩展的新任务」,比如 idea generation、experiment planning、abstract writing、review generation 等(即覆盖科研流程更多阶段)(文中对「学术任务统一定义」的论证与扩展思路与此一致)。

如果把它放到「科研智能体」的语境里,你可以想象一个更完整的闭环:

读:快速理解论文结构(段落/图表/引用)

写:在结构约束下生成段落、补齐实验描述

改:把 reviewer 意见映射到具体修改点,生成 revision

回:生成 rebuttal,并引用论文内部证据与图表支持

荐:对引用、相关工作、对比基线给出结构化推荐

图结构真的有用吗?

有,而且是「稳定收益」

结论一:小模型训练后能逼近大模型,说明数据接口的质量很关键

论文里提到,在revision generation / rebuttal generation上,经过训练的小模型(如 Qwen3-0.6B)性能显著提升,并能接近更大模型表现,侧面验证了 ResearchArcade 的数据与任务定义是「可学习」的 。

结论二:它确实能建模「动态演化」,但趋势预测仍然难

revision retrieval / revision generation 展示了论文内演化建模的能力;而 acceptance prediction 最好 accuracy 也只有0.55,几乎接近随机,说明「预测科研趋势」本身就很难 。

结论三:图结构带来稳定增益,多跳邻域有时能明显提升

论文直接对比了「图模型 vs 非图模型」,在 revision retrieval 上观察到显著提升(文中给出 67% 的增益量级),在 acceptance prediction 上也有一定改善;并且多跳邻域(比如从 1-hop 扩到 3-hop)能让 acceptance prediction 的表现上升到 0.55,说明高阶上下文很重要 。

结语

ResearchArcade 试图做的不是再造一个「更大的数据集」,而是把科研过程中那些原本被分割、被压扁、被静态化的信息,重新组织成可连接、可追溯、可扩展的「计算对象」。

一旦数据接口具备了这种统一的结构表达,科研任务就不必各自为政:引用、写作、修改、回复、预测乃至更复杂的科研规划,都可以在同一套范式里被定义、被训练、被比较,也就为 Specialized Research Agents 的规模化演进,auto- research的系统化落地,以至于最终能够理解科研学术奥秘的AGI提供了更稳的地基

科研世界的Arcade(游乐场)已经搭好,接下来就看我们能在这张图上玩出多少新东西了。

参考资料:

https://arxiv.org/pdf/2511.22036

秒追ASI

相关内容

热门资讯

原创 打... 大家好我是指尖,大家都知道,打野,也就是以刺客为首的职业,他们的责任一般都是带动团队节奏,对后排进行...
硬核肉鸽卡牌神作!中世纪巫医硬... 《放血医师》是一款克苏鲁题材的中世纪卡牌构筑游戏,抢先体验(EA)的开诊日期现已提前至3月30日,届...
原创 英... 2025年10月在美国纽约一场投资活动上,黄仁勋公开谈到公司在中国先进人工智能芯片市场的状况。 过去...
原创 量... 本研究结合多种实验方法,推动量子技术迈向实用化。 科学家正稳步推进量子通信网络的建设,未来这种网络...
微信员工回应龙虾插件因Open... 3月24日,有网友发文表示,微信官方龙虾插件只存活了一个周末。 该网友称,“OpenClaw更新了2...