DeepSeek终端Agent深度测评:比Claude Code更强?
最近在终端编程工具领域,有个项目挺有意思,叫 DeepSeek-TUI。简单来说,你可以把它看作是为 DeepSeek 模型量身打造的“终端版编程智能体”,类似于 Claude Code 或 GPT 的 Codex 这类工具,当然,这个类比只是为了方便理解。
这事儿起因还挺有趣。前两天在社交媒体上,看到一位国外开发者的帖子,内容是关于他开源的一个专为 DeepSeek 设计的终端 Agent。有意思的是,帖子正文是中文,开头一句“鲸鱼兄弟们好”让人忍俊不禁。后来评论区有人指出,这其实是 DeepSeek 模型告诉他中文网络流行这么打招呼,他就信以为真用了。原本他想表达的,大概是“使用 DeepSeek 的兄弟们”。
这个小插曲虽然有些幽默,但宣传效果却出奇地好。这位开发者甚至为此注册了微信和QQ,算是以一种特别的方式打入了中文AI开发者社区。目前,这个项目在开源平台上的热度攀升很快,已经接近获得九千个星标,有超过六百个分叉,照这个趋势,破万指日可待。
技术栈方面,项目采用 Rust 语言开发,并且作者明确表示会坚定地走 Rust 技术路线。
这个工具是干什么的
回到工具本身,DeepSeek-TUI 的核心定位是一个运行在终端环境中的编程助手。它深度集成了 DeepSeek V4 模型,旨在成为该模型在终端环境的原生智能体。
它的能力矩阵相当全面,涵盖了文件读写、执行 Shell 命令、网页搜索、Git 仓库管理、调用模型上下文协议(MCP)、调度子智能体、保存与恢复会话、查看语言服务器协议(LSP)诊断信息等。本质上,它想做的是 Claude Code、Codex CLI、OpenCode 这类工具正在做的事,只是背后的模型引擎换成了 DeepSeek V4。
在亲自体验之前,先看了看项目的议题列表。虽然还有一百多个处于开放状态的问题待解决,其中甚至包括反馈当前效果可能还不及 Claude Code 配合 DeepSeek 模型,但已经关闭的议题超过了四百个,这说明项目维护相当活跃。
这个项目能获得关注,除了那波“意外出圈”的推广,其本身的想象空间是关键。目前市面上,头部模型大多有与之深度绑定的终端工具:Claude 有 Claude Code,GPT 有 Codex,Kimi 也有 Kimi Code。以 Codex 为例,它在调用 GPT 模型时效果最佳,正是因为其在工程层面做了大量针对性适配,包括提示词也都是为 Codex 专门调校的。所以,一个专为 DeepSeek 适配的终端 Agent,确实有可能发挥出“1+1>2”的协同效应。
几个值得关注的功能
DeepSeek-TUI 里集成了一些颇具亮点的功能设计。
首先,它能够利用 DeepSeek 模型原生支持的 128K 上下文长度。大上下文对于理解复杂代码库和进行长对话的重要性不言而喻。
其次,它支持通过 rlm_query 并行调度 1 到 16 个低成本的 deepseek-v4-flash 子任务,用于批量分析和并行推理。这或许才是智能体工具该走的方向——不是把单个模型当作万能的神,而是将不同成本、不同能力、不同上下文窗口的模型进行有效编排和调度。
再者,是它的 side-git 工作区回滚机制。工具会用 side-git 记录每一轮操作前后的快照,支持通过 /restore 和 revert_turn 命令进行回滚,并且不会干扰项目本身的 .git 仓库。对于编程智能体来说,最大的问题有时不是它不会写代码,而是它可能过于“自信”。一不留神,它可能就修改了多个文件,甚至顺手重构了你根本没让它碰的模块。拥有可靠的回滚能力,无疑能给开发者带来更多安全感。
最后,是 LSP 诊断集成。每次代码编辑后,它可以借助 rust-analyzer、pyright、typescript-language-server 等语言服务器来提供内联的错误和警告信息,并将这些诊断结果反馈给模型,纳入后续的决策上下文。
最后
随着用户和贡献者数量的增长,这个项目确实有可能发展成为 DeepSeek 模型在终端环境中最得力的助手工具之一。在AI技术快速迭代的当下,一切皆有可能。



