智能视觉助手测评:AI推理搜索如何精准定位视频对象?
这项由中山大学iSEE实验室主导的创新研究,已于2026年2月5日以论文编号arXiv:2602.04454v1正式发布,标志着计算机视觉领域一项关键进展。技术研究者可通过该编号查阅完整论文。
设想一个场景:朋友发来一段视频,询问“帮我找出那位刚刚获得最佳新人奖的歌手在哪里”。人类会如何应对?我们会自然地进行多步推理:先理解“最佳新人奖”这一概念,可能即时搜索最新的颁奖结果,再将获取的信息与视频画面进行比对,最终定位目标人物。这一过程对当前的人工智能系统而言,却是一个显著的瓶颈。现有方案要么受限于静态的知识库,无法处理最新动态;要么虽接入了搜索工具,却缺乏有效运用这些工具进行复杂推理的能力。
中山大学的研究团队为此提出了一个解决方案。他们开发的Seg-ReSearch系统,为AI赋予了类似侦探的主动推理与信息检索能力。该系统能够分析复杂指令,自主发起网络搜索以获取必要的外部知识,并综合视觉线索进行精准的空间定位。
为客观评估该系统性能,团队构建了名为OK-VOS的基准测试平台。该平台包含一系列必须依赖实时外部信息才能解决的视觉任务。实验数据表明,Seg-ReSearch在此类任务上的性能表现,较现有最优方法提升了超过10个百分点,同时在传统视频对象分割任务上也刷新了纪录。
核心挑战:静态知识与动态世界的鸿沟
考虑一个更复杂的查询示例:在给定视频中定位“那位刚刚赢得欧洲金球奖的球员的女友”。解决此问题需要串联信息检索、逻辑推理与视觉匹配。然而,主流的AI视觉模型,其知识库往往冻结于训练数据截止日期,如同一个无法更新的静态数据库。无论是早期的LISA,还是较新的VideoSeg-R1模型,其内在知识无法覆盖此类最新或长尾信息。
更深层的问题在于,即便为这些模型赋予搜索API的调用权限,它们也普遍缺乏有效利用工具的策略。这类似于给予一个孩子访问图书馆的权限,他却不知如何构建检索词,或如何将查到的信息与当前问题关联。现有的一些方法尝试通过模仿学习或稀疏奖励来引导模型使用工具,但效果有限,往往导致策略僵化或学习信号不足。
因此,一个真正实用的视觉理解系统,必须突破静态知识的限制。它需要具备在动态信息环境中主动学习、实时获取并灵活运用知识的能力——这本质上是在构建一个具备持续认知进化能力的智能体。
方法论:分层强化学习塑造搜索策略
中山大学团队采用了一种分层的奖励机制来训练AI,其核心在于引导而非强制模仿,旨在培养模型自主决策的能力。
第一层是“初始引导奖励”。当AI开始处理任务时,系统会评估其首次搜索尝试的方向是否合理。此处的“合理”定义为与任务目标具有相关性,而非必须与预设的专家路径完全一致,以此鼓励策略探索的多样性。
第二层是“递减式过程奖励”,这是设计中的关键创新。系统鼓励AI执行更多有效的搜索,但同时通过递减的奖励值来抑制无意义的重复查询。具体而言,每次格式正确的搜索都会获得奖励,但后续同类操作的奖励值会逐次降低。这一机制促使AI学会在“充分获取信息”与“避免无效冗余”之间找到最优平衡点。
第三层是“结果奖励”,基于最终任务完成的精度进行评定。评估维度包括目标定位的准确性、关键帧选择的合理性以及目标在画面中的显著度。
整个训练过程采用了群体相对策略优化方法。简言之,系统并行探索多种不同的搜索与推理策略,并通过相互比较来高效学习,这种方法比传统的单一路径策略梯度更加稳定。
评估体系:构建严谨的基准测试
为进行严格评估,研究团队构建了OK-VOS测试平台。它包含1000个测试样本,涉及150个视频和500个不同的查询目标。关键设计在于,每个测试问题都经过人工校验,确保其解答必须依赖模型训练数据之外的最新或特定知识,从而杜绝了模型通过内部记忆或简单视觉模式匹配来作弊的可能性。
测试案例按复杂度分为三个层级:简单任务仅需单次直接搜索;中等任务需要多步信息整合;复杂任务则涉及对时空关系的深层推理。
在这一严苛基准下,现有先进模型的表现普遍不佳。即便是增强了搜索能力的基线模型,其准确率提升也微乎其微,这印证了“拥有工具”与“精通工具”之间存在本质区别。
相比之下,Seg-ReSearch的表现突出。其40亿参数版本达到了46.0%的准确率,比同等规模、具备搜索功能的基线系统高出近10个百分点。80亿参数版本更是将准确率提升至50.0%,在此挑战性测试中设立了新的性能标杆。
技术架构:解构推理-搜索协同机制
Seg-ReSearch的核心是一个多步骤的协同推理流程。当接收到一个查询时,系统首先解析视频内容与问题文本,判断是否需要借助外部信息。
搜索过程采用多轮交互机制。每当推理链中需要补充信息时,系统会生成精确的搜索查询(文本或图像形式),并将返回的结果自动整合到后续的推理分析中。此过程可循环进行,直至获取足够信息或达到预设的搜索次数上限。
在视频分析阶段,系统采用两阶段处理:先对低分辨率关键帧进行快速扫描以初步确定目标可能出现的帧序列;随后对高概率帧请求高分辨率版本,进行精细化的对象定位。最终,系统输出带有边界框和精确坐标的定位结果,并由专用的掩码生成器完成像素级分割。
系统的训练采用了基于分层奖励的强化学习框架。值得注意的是,仅需约100个训练样本,模型性能即可得到显著提升,这在标注数据稀缺的实际应用场景中具有重要价值。
深度分析:关键成功要素
消融实验揭示了系统成功的几个核心因素:
分层奖励机制至关重要。对比实验表明,仅使用稀疏的最终结果奖励会导致模型倾向于寻找视觉捷径,逃避必要的搜索步骤;而过于严格的逐步骤模仿奖励则会限制模型的创造性。分层奖励在鼓励探索与确保效率之间取得了最佳平衡。
递减式过程奖励设计效果显著。实验显示,采用线性递增的搜索奖励会诱发模型进行无意义的重复搜索;而简单的二元奖励则无法提供足够细粒度的学习信号。递减设计使模型学会了“适度”搜索,平均搜索次数稳定在2.5次左右。
搜索配置的优化带来明确收益。将最大搜索回合数从1次增加到5次,性能提升了7.4%,证明了多轮交互式推理的重要性。但进一步增加到10次,性能增益则趋于平缓,表明模型已学会了高效的搜索策略。
在搜索内容配置上,文本搜索是获取外部知识的主要渠道,增加检索返回的条目数量带来了稳定的性能提升。图像搜索虽然贡献度较小,但在需要视觉参照物比对的任务中发挥了独特作用。此外,搜索引擎的选择(例如Google对比DuckDuckGo)以及是否启用深度网页浏览功能,也对最终效果产生可测量的影响。
应用实例:从复杂查询到精准定位
通过一个复杂案例可以直观理解其工作流程:任务是在视频中定位“在德国工程师Michaela Benthaus成为首位乘坐轮椅进入太空的当天,第三次主持《周六夜现场》的艺人”。
面对如此复杂的多跳查询,基础AI模型完全无法处理;仅增强搜索功能的模型也只是机械地转发原始问题,得到无关结果。而Seg-ReSearch则展示了类人的分解推理能力:首先搜索确定太空飞行的具体日期(2025年12月20日),接着搜索在该日期下第三次主持SNL的艺人(Ariana Grande),最后在视频中准确定位该人物。这一过程完整演绎了信息获取、整合与视觉匹配的链条。
系统的学习曲线清晰可见。训练初期,模型性能较低,搜索行为不稳定;随着训练推进,模型学会了更有效的搜索策略,错误响应快速减少,正确响应的格式也趋于规范。在不同任务类型上,其表现也存在差异:单步搜索任务准确率最高(54.0%),而多步推理(43.3%)和关系推理(44.2%)任务则更具挑战性。
技术意义:重新定义视觉系统的能力边界
Seg-ReSearch的成功不仅体现在性能指标上,更在于其对机器视觉能力范式的拓展。传统视觉AI如同一个封闭的识别器,而它则像一个能够主动探索与学习的智能助手。
采用多模态大语言模型作为策略网络的核心,体现了深刻的技术洞察。语言模型固有的逻辑推理与知识整合能力,通过针对性训练,可以有效地迁移到复杂的视觉任务中,为解决开放世界的视觉问题开辟了新路径。
训练方法的创新是另一大突破。分层奖励机制结合了模仿学习与强化学习的优势,在保证学习效率的同时,大幅降低了对大量精细标注数据的依赖。
系统的可扩展性得到了验证。从40亿参数扩展到80亿参数,性能呈现可预测的提升,表明随着模型容量增大,其性能仍有上升空间。更重要的是,这种“推理中搜索”的框架具有通用性,可被应用于图像问答、视觉常识推理、多模态内容生成等其他需要外部知识辅助的任务中。
前景展望:迈向开放环境的通用视觉助手
从更广阔的视角看,Seg-ReSearch代表了AI发展的一个方向:从解决封闭、定义良好的任务,转向应对开放、动态变化的真实世界。这种主动获取信息、灵活进行推理、快速适应新情况的能力,是构建下一代通用智能助手的核心特质。
其潜在应用场景广泛:新闻机构可利用其快速定位视频中的特定人物或事件;教育科技公司能开发出更具交互性的视觉学习内容;娱乐行业则可实现智能化的视频内容分析与摘要生成。
当然,技术的部署也伴随考量。首先是信息可靠性问题,系统的输出质量依赖于互联网信息的准确性与时效性。其次是隐私与合规性,需要在提供强大功能与保护用户数据隐私之间取得平衡。研究团队也在论文中讨论了技术可能被滥用或放大现有偏见的风险,强调了负责任开发的重要性。
从技术演进看,Seg-ReSearch是一个重要的起点。未来的智能系统可能具备更强的元学习能力,能够从与环境的交互中持续自我改进,甚至主动探索未知的知识领域。实现“持续在线学习”的系统,将是迈向通用人工智能的关键里程碑。
研究团队计划公开其代码与数据集,以期推动更多关于开放世界视觉推理的研究,促进该领域向更智能、更实用的方向发展。
归根结底,这项研究的价值在于展示了一种新的AI设计范式:让机器学会在信息不完备时主动寻求答案,而非局限于预训练的知识范畴。它证明了AI系统可以突破静态知识的束缚,学会在动态世界中自主导航——其核心目标不是灌输海量数据,而是赋予其持续学习和思考的方法。
Q&A
Q1:Seg-ReSearch系统和普通的AI视觉识别有什么区别?
核心区别在于动态知识获取能力。普通视觉AI依赖于训练时注入的静态知识库,如同一个封闭的百科全书。Seg-ReSearch则像一个配备并精通使用搜索引擎的侦探,遇到未知信息时能主动发起查询,并将搜索结果与实时视觉分析相结合,从而处理训练数据中未出现过的新概念或最新事件。
Q2:这个系统只能用来分割视频中的对象吗?
当前研究主要聚焦于视频对象分割任务,以验证其核心框架的有效性。然而,这种“在推理中动态搜索”的方法论具有高度的可扩展性。其技术思路可以迁移到图像问答、视觉常识推理、多模态内容生成与编辑等多个需要结合外部知识进行理解的视觉任务中。
Q3:OK-VOS测试平台为什么这么难,连最先进的AI都表现不好?
OK-VOS平台专门设计用于评估模型处理“知识外”视觉任务的能力。其每个问题都必须依赖模型训练截止日期之后的最新信息(例如“找到2025年奥斯卡获奖者”)或非常小众的知识才能解答。传统AI模型的知识是冻结的,无法获取这些新信息。即使为它们添加了搜索工具,由于缺乏有效的策略学习,它们也无法像人类一样灵活、有步骤地利用工具,因此表现不佳。
