DeepSeek Claude Code评测:8700星登顶热榜,鲸鱼哥为何爆火?

2026-05-17阅读 0热度 0
DeepSeek

DeepSeek V4发布不到一周,一个基于它的开源终端工具就冲上了GitHub趋势榜榜首。市场的热烈反响,印证了开发者对高性价比AI编程助手的迫切需求。



这个名为DeepSeek TUI的项目,在极短时间内便斩获超过8700颗星标,且增长势头依然迅猛。

这仅仅是一个开端。



DeepSeek TUI是一款完全运行在本地终端内的AI编程智能体,由开发者Hunter Bown(自称“鲸鱼兄弟”)使用Rust语言构建。它专为DeepSeek模型,尤其是最新的DeepSeek V4优化,致力于提供原生终端、长上下文支持且推理过程完全透明的开发体验。

凭借其开放的工具链和极低的模型调用成本,它率先向主流高价AI编码助手发起了挑战。

通过DeepSeek TUI,开发者能在终端内直接与DeepSeek对话、编辑文件、执行Shell命令、管理任务,甚至协调代码库中的多个子智能体。所有关键操作都配备了可配置的审批机制,其功能成熟度已足以对标成熟的商业产品。

本质上,它为开发者提供了一个用DeepSeek完整能力替代Claude Code的可行方案。

将DeepSeek的思维链可视化于终端

该工具与普通API封装的核心差异,在于深度集成了DeepSeek的推理能力。面对复杂指令时,工具会启动“思考模式”,对代码库进行全面分析。



使用过程中,DeepSeek标志性的思维链会以流式方式实时呈现在终端。开发者能清晰追踪模型如何剖析问题、选择解决路径,甚至观察其自我纠正与策略调整的过程。AI决策的“黑箱”由此变得高度透明。

针对DeepSeek V4的128K超大上下文窗口,DeepSeek TUI不仅默认充分利用,还辅以上下文压缩技术。这意味着即便处理复杂项目或重构大型代码库,也无需担忧AI出现“记忆丢失”。

此外,工具提供了RLM(递归语言模型)模式。这种并行任务处理机制,巧妙利用了DeepSeek模型成本低廉的优势进行并发调度。它可同时驱动最多16个V4 Flash子任务进行批量分析,实现高效率、低成本的复杂编程任务处理。

由于Flash模型的API调用成本仅为Pro模型的三分之一左右,RLM模式将大部分扇出子任务分配给Flash处理,能显著优化整体项目开销。



DeepSeek TUI主要提供三种核心操作模式:



一是只读的“计划”模式,用于输出任务拆解方案与修改思路。二是默认的“智能体”模式,拥有完整工具链权限,但执行关键操作前需开发者手动确认。三是全自动的“YOLO”模式,关闭所有手动审批,赋予AI完全的自主决策与执行权。

当前,终端原生编码智能体领域几乎被Claude Code等专有系统设为标准,但它们通常依赖付费API且运行于封闭生态。DeepSeek TUI打破了这一格局,依托DeepSeek的低成本模型栈,以极低门槛提供了媲美的工作流。

半路出家的开发者,用AI构建AI

项目背后的开发者故事同样引人注目。这个基于中国开源大模型DeepSeek打造的工具,作者却是一位美国极客。

随着项目爆火,Hunter Bown在5月3日发文感叹:“这是我人生中最疯狂的两天。”他同时向支持他的“鲸鱼兄弟”们表达了感谢。



这个于一月份启动的项目,在五一期间乘着DeepSeek V4发布的东风,热度呈现指数级飙升。

更具反差感的是,Hunter Bown的编程之路堪称“半路出家”。他本科主修乐队指挥与法学,目前是南卫理公会大学专利法专业的二年级学生。他创立了名为Shannon Labs的工作室,立志成为AGI时代的“贝尔实验室”。

在他看来,过往的经历并非徒劳,指挥乐队所需的协调与节奏把控,与管理开源项目有着异曲同工之妙。



而DeepSeek TUI的开发过程本身,就大量采用了AI辅助编程,形成了一个“工作流闭环”。这几乎可视作AI自我迭代的一个早期雏形。

由于DeepSeek源自中国,Hunter Bown正积极寻求与国内开发者社区的交流。他已向中国网友承诺,会认真学习中文。



不过,即便中文学习进展缓慢,问题似乎也不大。毕竟,现在不是还有DeepSeek翻译嘛。

免责声明

本网站新闻资讯均来自公开渠道,力求准确但不保证绝对无误,内容观点仅代表作者本人,与本站无关。若涉及侵权,请联系我们处理。本站保留对声明的修改权,最终解释权归本站所有。

相关阅读

更多
欢迎回来 登录或注册后,可保存提示词和历史记录
登录后可同步收藏、历史记录和常用模板
注册即表示同意服务条款与隐私政策