上海交大团队Claude Code科研实战:两篇顶会论文背后的高效AI助手测评与推荐
自主科研AI Agent现已能独立完成从灵感到论文的全流程。这意味着,当你结束一天的工作,Agent可能已经完成了实验并产出了一份结构完整的学术稿件。
这带来了巨大的潜力,但也引出了一个根本性的信任问题:我们如何确保Agent在最终结论中没有嵌入未被察觉的“事实扭曲”?
当前系统普遍面临两大挑战。首先,生成与审查任务常由同源模型执行,导致系统性偏差难以在内部被识别和纠正。其次,当一个Agent在近乎无人监督的状态下连续运行数日,其最终产出的结论,其证据的充分性往往难以追溯和验证。
针对这些信任难题,上海交通大学的研究团队提出了名为“在睡眠中自动研究”(Auto-Research-in-sleep,简称 ARIS)的开源框架。其核心目标,并非单纯加速论文产出,而是致力于构建一套保障机制,使自动化产出的研究更具科学严谨性与可验证性。
值得关注的是,在社区的实际应用案例中,已有研究人员利用ARIS完成了从构思到成稿的全流程工作,并且相关论文已被学术会议接收。
ARIS:三层架构构建的科研可信保障体系
根据论文描述,ARIS的系统拓扑采用清晰的三层架构,共同构建了一个从任务执行到质量保障的完整闭环。
第一层是执行层,它提供了基础能力单元,由一系列通过Markdown定义的可复用技能模块,以及一个持久化的研究Wiki知识库构成。
第二层是编排层,负责将分散的技能串联成完整的科研流水线。它定义了五个端到端的工作流,覆盖了从创意发现、实验桥接、自动审查循环、论文撰写到回复审稿意见的完整研究周期。
第三层是保障层,这是ARIS最具创新性的部分。它专门负责对研究过程与产出进行审计与核查,包括一个三阶段的证据-声明审计级联、一个五轮次的科学写作编辑流水线,以及数学证明检查器、视觉PDF审查和引用审计等模块。
图|ARIS 系统拓扑。6组组件通过带标签的关系相互交互(见左侧边栏):Meta-Optimization 外循环对 Assurance 层进行门控,后者负责检查 Artifacts;Artifacts 由 Workflows 生成和消费,而 Workflows 负责编排 Skills;Skills 则调用 MCP 与 Tool Bridges,以访问外部模型和数据。右侧的 executor 和 reviewer 使用来自模型系列。ARIS-Code CLI 将所有组件打包为一个独立的二进制程序。
核心机制:跨模型家族的对抗式协作循环
研究团队认识到,依赖单一Agent难以可靠地完成长周期、高复杂度的研究任务。因此,他们设计了一套跨模型家族的“执行-审查-修正”循环机制。
在此机制中,执行者(默认推荐使用Claude系列模型)负责生成代码、实验方案或论文草稿;而审查者(默认推荐使用GPT-4等系列模型)则依据预定义的结构化评分标准进行评估,并返回具体的修改建议。执行者根据建议进行修订后再次提交,循环往复,直至审查评分达到预设阈值。
图|跨模型对抗式协作通过“执行者生成”与“外部模型批评、可执行的修订请求以及收敛性检查”交替进行。审查者的访问权限范围可以从仅查看文档,到访问整个代码仓库。
覆盖全研究周期的五条核心工作流
基于上述协作机制,ARIS组织了五条清晰的工作流:
工作流1:创意发现。负责进行文献调研、新颖性评估,并制定初步的实验计划。
工作流2:实验桥接。将实验计划转化为可执行的代码,调度计算资源运行实验,并回收和分析结果。
工作流3:自动审查循环。将论文草稿提交给跨模型审查者进行多轮结构化评分,提取行动项,必要时触发GPU实验以获取新证据,修订相关章节,并检查修改是否收敛。
工作流4:论文撰写。这是一个包含多个步骤的精细化流程,依次完成论文大纲规划、图表生成、LaTeX撰写与五轮科学编辑。对于理论性强的论文,还会调用证明检查器。随后进行结论审计、文档编译,并通过两轮基于GPT-4的视觉审查与自动修订进入改进循环。
工作流5:投稿后阶段。系统会解析审稿意见,拆分关键问题,规划回应策略,起草回复稿,并通过三道分别用于防止捏造数据、过度承诺和遗漏回应的安全检查,最后进行压力测试并定稿。
图|ARIS 工作流库。上:5条工作流及其产物契约的端到端组合,按研究的4个阶段分组,分别为发现、实验、成稿和投稿后阶段;虚线表示审稿人反馈、由 GPU 触发的证据收集,以及 Wiki 记忆。下:正文未单独展开的几条工作流的压缩内部结构,包括 W1创意发现(带有审稿人门控的迭代细化)、W1.5 实验桥接(带有代码审查和自动调试回退)以及 W4 回复审稿意见(带有安全门和压力测试)。
构建“自证”安全网:三层审计级联
ARIS最具特色的设计在于其严谨的三层审计级联,为AI的科研输出构建了一道“自证”安全网。
第一步,实验审计。重点审查实验本身的可靠性,排查诸如伪标签、幽灵结果、未执行的评估指标、超出数据支持范围的结论外推等问题。
第二步,结果到主张的映射审计。将论文中的每一条候选结论与已有的实验证据逐一比对,明确判定其属于“有充分支持”、“部分支持”还是“不成立”。
第三步,论文主张审计。由一位不带任何上下文的“全新”审查者,直接核对论文正文中的原始结果描述、实验设置细节以及图表中的数据是否完全一致。
在这条核心审计链之外,系统还设置了多重额外保障。例如,初稿完成后会经历五轮科学编辑
图|证据到主张审计级联。阶段 1(experiment-audit,实验审计):审查者对评估脚本和结果文件进行审计,以检查完整性失效模式。阶段 2(result-to-claim,从结果到主张):将结果映射为明确的主张判定(支持、部分支持、被证伪);凡存在审计失败的问题,相关主张都会被降级处理。阶段 3(paper-claim-audit,论文主张审计):一名不带任何上下文信息的全新审查者,将稿件中的每一条定量主张与主张台账及原始结果文件逐一比对。
从“反复试错”到“螺旋式学习”:研究Wiki的核心价值
持久化的研究Wiki是ARIS另一个关键组成部分。它并非简单的笔记,而是一个项目级的记忆系统,持续记录相关的论文、研究想法、实验过程和阶段性结论,并标记它们之间的关联。
这套机制的价值显而易见。在没有它的情况下,同一个被证明行不通的想法,可能会在不同轮次的研究中被Agent反复提出,陷入低效的循环。而有了Wiki,失败的探索方向会被及时记录并排除,已经验证的结论则能成为下一轮研究的坚实起点,从而将一次性的、可能重复的研究过程,转变为可积累、可迭代的螺旋式学习。
图|为什么 wiki 很重要。没有 wiki 时(左),每次会话都从一张白纸开始;同一个失败的想法 A 可能会被无限次重复尝试,因为系统无法记住先前的结果。有了 wiki 之后(右),第 1 次会话中的失败会被记录下来;第 2 次会话在构思阶段会读取 wiki,跳过 A,转而成功尝试 B;第 3 次会话则在 B 的基础上继续推进,并探索 C/D。失败的想法会变成“禁试清单”,而已验证的论断则会成为下一轮构思的基础,从而把一次性的研究过程转变为螺旋式学习。
实际效能与当前局限
那么,这套系统的实际表现如何?
目前,ARIS的技能库已从最初的21个核心技能扩展到65个以上,覆盖了机器人学、硬件设计、数学证明乃至基金申请等多个方向。系统已在Claude Code、Codex CLI和Cursor等平台上完成测试,审查端可接入GPT、Gemini、DeepSeek等多种大模型。
研究团队提供了一次真实的隔夜运行记录。在约8小时内,ARIS完成了4轮“审查-修改”循环,内部审查分数从5.0/10提升到了7.5/10。过程中系统自动触发了20多次GPU实验,并主动删除了一些证据不足的结论。这表明,ARIS至少已经能够将“审查驱动修改”从一个概念,落地为可执行、可观测的自动化流程。
不过,团队对结果的表述非常谨慎。他们在论文中明确指出,这些只是观察性证据,不能据此做出严格的因果推断。也就是说,这次运行成功演示了“结论裁剪”和“审查驱动修改”的可行性,但尚不足以证明跨模型审查一定优于同模型审查,也无法断定当前的双审查者结构已是最优解。
现存不足与未来方向
缺乏受控的对比评估是当前最主要的局限。论文中报告的所有结果均为观察性记录。研究团队也承认,模型选择、任务难度、运行强度等多种变量都会影响结果,因此无法将观察到的效果在因果层面完全归功于ARIS框架本身。
另一方面,必须清醒认识到,ARIS并不能保证任何输出的绝对正确性、新颖性或科学合理性。三层审计链可以拦截许多常见错误,但无法保证发现所有潜在的失真或逻辑谬误。如果审查者自身存在某种方法论偏好,系统最终优化的方向,可能是迎合审查者的“口味”,而非提升真正的科学质量。论文也强调,最终的研究方向抉择、关键证据的核验以及论文的提交决定,仍然需要人类研究者的深度参与和负责。在安全层面,将整个代码仓库发送给外部模型进行审查也存在潜在风险,本地化的审查路由方案仍在规划中。
当然,ARIS的价值并不仅限于论文写作。其核心机制——独立的审查者、“证据到结论”的审计流程以及可追溯的台账记录——理论上可以被置于模型输出与后续训练信号之间,作为一层显式的监督机制,服务于更广泛的AI自我改进系统。
归根结底,ARIS真正试图推动的,并非自动化科研的“速度”,而是其“可信度”。它或许还没有给出所有问题的标准答案,但至少将一个长期被“效率”光环所掩盖的核心问题——如何确保AI科研产出的真实与可靠——清晰地摆到了台面上。对于走向深水区的自动化科研而言,这个问题的重要性,可能远比“再快一点”更为根本。







