Claude Code Harness+龙虾科研团来了!金字塔分层架构+多智能体
你还在一个人做科研吗?
科研路上最磨人的,往往不是问题本身,而是那种彻头彻尾的“孤军奋战”感。一个想法,从文献调研到实验设计,再到落笔成文,每一步都只能靠自己摸索着前行。
方向偏了,没人及时提醒;遇到歧义,找不到人讨论;结果不对,就只能陷入反复试错的循环。市面上不少所谓的“自动化科研”工具,其实只是把这条孤独的流水线封装了起来——人看似被解放了,但核心痛点依然存在。
事实上,真正高效的科研生态,从来不是一条流水线。它更像一个运作良好的实体实验室:多个角色协同攻关,不同技术路径并行探索,发现被即时共享,错误被提前暴露,研究方向在持续的讨论与碰撞中逐渐收敛。在这里,研究者始终处于关键位置,负责做出判断、指明方向、调整路径。
△clawailab.ai
如今,由刘发耀(新加坡A\*STAR研究科学家)、叶德珩(前腾讯AI合伙人兼首席专家)和陈天润(魔芯科技创始人)领衔的研究团队,带来了一套全新的解决方案:Claw AI Lab。
这个项目的雄心,正是将上述这种理想的协同研究模式,变成一个可运行、可交互的智能系统。你,作为主导者,负责定义核心研究方向,而多个智能体(Agent)则会协同推进,支持多个项目并行展开,整个过程持续演化。你可以在任何时候介入、修正甚至回滚,让整个研究过程形成一个真正的、动态的闭环。
至此,你不再是一个人在战斗。
你更像是在带领一个高产的实验室,让研究本身“运转”起来。
金字塔式分层架构管理+用户友好UI
Claw AI Lab的核心,是一套金字塔式的分层架构。它将复杂的科研流程清晰地拆解为几个层级:从顶层的研究方向设定,到中层的方法设计与实验规划,再到底层的代码实现与结果分析。这套体系形成了自上而下、逐级细化的完整科研闭环。
每个层级都由专属的Agent负责,它们通过任务队列和共享的上下文紧密连接。这种设计既保证了系统具备宏观的规划能力,又能确保细节任务被高效执行。更重要的是,上层的决策可以根据下层实验反馈的结果进行动态调整,从而实现持续的迭代与优化。
△Claw AI Lab的操作界面
为了让研究者能像实验室PI(首席研究员)一样高效管理项目,系统提供了可视化的操作界面。用户可以直观地定义研究课题、拆解子任务,并实时查看各个Agent的执行状态与中间产出。复杂的科研流程被抽象为清晰的进度面板和直观的操作,这大大降低了使用门槛。
系统主要支持三种协作模式:
Lab讨论模式:支持多个研究方向并行调研,鼓励跨方向讨论以达成共识,最终生成统一的实验假设。
Lab独立研究模式:同样支持多方向并行调研,各方向共享知识库但独立生成假设,速度更快,不过缺少跨方向的共识形成过程。
论文复现模式:由单个Agent全流程复现目标论文的方法与实验,专注于精准还原。
Claude Code Harness:从写代码到完成实验
如果说传统的AI编程助手解决的是“写一段代码”的问题,那么Claw AI Lab内置的Code Harness,瞄准的是“把一个研究想法真正落成为可运行的完整实验”。
在这个系统里,大模型不再是一次性吐出代码片段就结束工作。相反,它会像一位经验丰富的工程师一样,进入一个“迭代循环”:首先读取本地的代码库、数据集和模型检查点,然后循环进行“理解任务、编写主程序、运行测试、定位报错、修复问题”这一完整闭环。
△实验代码生成流程
更关键的一步在于,系统会在运行环境中注入一个不可编辑的“实验控制器”(Experiment Harness)。这个控制器统一负责时间预算控制、实验指标上报、异常值校验,并最终生成标准化的结果文件(results.json)。这意味着Claw AI Lab不只是“会写代码”,而是在构建一条从想法到实验结果的可信执行链路。它生成的不是简单的演示代码,而是真正能够落地、可以复现、并能被后续持续优化的研究级代码。
从“单一”智能体到“群体”智能
科研的本质在于碰撞与迭代,而非单打独斗。那些重要的突破,往往诞生于反复的讨论、质疑与修正之中——一个想法被提出、被挑战、被重构,在多轮批判性协作中逐渐逼近真理。
不妨设想这样一个场景:你创建了一个具身智能研究“实验室”,你担任PI,并拥有三位研究员,他们的专长分别是视觉语言模型(VLM)、视觉语言动作模型(VLA)和世界模型(World Model)。你们的共同目标是探索具身智能领域最新的视频动作模型,并找到最具落地潜力的方向。
讨论开始前,各位研究员基于各自立场提出了不同主张:
世界模型研究员主张“预测与决策并行”的路径,认为系统的可控性、安全性和在线重规划能力才是工业部署的关键。
VLA研究员则主张“用视频训练,用动作执行”的方案,认为在训练时引入视频监督,在执行时直接输出动作指令,才能兼顾效率与闭环稳定性。
VLM研究员则认为,短期内最容易落地的并非直接控制,而是高级的任务理解、执行监控、异常预警和自动化模块,因为这些部分更容易集成到现有的真实系统中。
而在Claw AI Lab的框架内,这样的讨论能够有效结合各家所长,收敛出一个更强、更可行的综合性方案。例如,最终可能形成的共识是:在训练阶段,利用视频监督学习更强的动态场景表征;在执行阶段,保留直接动作输出以确保低延迟的闭环控制;在系统上层,引入规划与安全层进行重规划和约束筛选;同时,在执行旁路增加步骤理解、异常监控和可解释推理模块,用于错误纠正、系统恢复和长期运维。
更重要的是,在Claw AI Lab里,讨论不会仅仅止步于给出一个“看起来合理”的答案。它还会深入挖掘争议背后的根本原因。
例如,针对“人类演示视频是否应直接用于训练机器人动作”的争议,讨论可能形成的共识是:这类数据在中近期的最大价值在于预训练和获取中间表示,而非直接替代底层的具体动作监督。
再比如,探究“为何World Model与VLA的主张截然不同”,共识可能在于:前者代表了对系统可控性与安全性的追求,后者则侧重于执行效率与低延迟。因此,真正稳健的技术路线并非二者择一,而是将两者整合进同一个分层的系统闭环中。
所以说,Claw AI Lab实现的,远不止是“让多个智能体一起说话”。它更像在模拟一场高质量的研究组会:分歧被充分展开,潜在假设被暴露出来,证据被相互对齐,技术路线被重新组合。最终产出的,是更强的集体共识、更清晰的研究优先级,以及下一步真正值得投入资源去验证的方向。
至此,科研不再仅仅是生成一个静态的结果,而转变为一个由群体智能驱动、不断收敛与演化的动态过程。
Lab模式的项目结果示例
项目简介:该项目旨在对大模型中的“幻觉”(Hallucination)问题进行系统化量化。其目标不仅仅是判断输出结果的正确与否,更是深入到模型的推理过程内部,识别错误是如何产生、又如何传播的。项目的难点在于,面对许多开放性问题时缺乏标准答案,模型产生的错误常具备“表面合理性”,并且在多步推理中会不断被放大。为此,项目通过对模型输出流程进行结构化拆解,引入多维度一致性校验和过程级分析,实现了对幻觉问题的细粒度度量与定位,从而将这个长期依赖经验判断的难题,转化为可分析、可优化的工程问题。
论文复现模式的项目结果示例
项目简介:该项目旨在真实工程环境下,复现PhyCustom方法在FLUX模型上的效果。其目标不只是复现论文中报告的结果,更是要验证“物理属性可控生成”这一能力能否在复杂的实际系统中稳定实现。主要难点在于,物理属性本身难以被生成模型准确表达,且整个复现过程对数据准备、训练细节和实现路径高度敏感,稍有偏差就可能导致结果失真或完全失效。该项目通过将复现方法嵌入到一套完整的实验执行链路中,对关键步骤施加约束与追踪,使得每一次训练和生成过程都具备可依赖的上下文与即时反馈,从而让复现工作从“不可控的试错”,转变为“可追踪的系统性验证”。
代码链接:
https://github.com/Claw-AI-Lab/Claw-AI-Lab
项目主页:
https://clawailab.ai/






