2026红杉AI大会前瞻:未来工作方式变革深度解析

2026-05-16阅读 0热度 0
ai

“我不记得上一次手动修改 AI 的输出,是什么时候了。”

红杉 AI 大会2026:工作方式,彻底变了

在红杉 AI 2026 大会的现场,当 Andrej Karpathy 平静地说出这句话时,台下不少听众心里都咯噔了一下。一个写了十几年代码的顶尖专家,开始不需要修改工具的输出了——这背后意味着什么?

过去一年,很多人对 AI 的理解,或许还停留在“一个更快的工具”层面。但这场峰会传递出的信号,远不止效率提升那么简单。它更像是一次规则的改写,关乎我们如何做事、由谁来做,以及最终为何而做。

接下来的四年,变化可能比过去十年加起来还要剧烈。

第一节|做事方式彻底换了

在那场对话里,Andrej Karpathy 分享了一个深刻的转变:两三年前写代码,是在一行一行地规定机器该怎么做;而现在很多时候,你只需要把目标讲清楚,模型自己就能把路径走完。

这背后,是软件底层范式的根本性迁移。

传统软件是明确规则的集合,人负责把每一步逻辑写死。进入机器学习时代后,人不再手写规则,转而用海量数据去训练模型。而如今,大语言模型让“不动手”成为可能:你只需提供上下文和指令,一个全能的解释器就能完成整段工作。

表面看,这只是效率的加速。但真正碘伏之处在于,中间层正在被拿掉。

Karpathy 举了个自己的例子。他曾为了一个“拍菜单看菜品”的功能,写过一个完整的应用:先识别文字,再调用图像模型,最后重新排版呈现。这是经典的软件工程思路——把复杂问题分解成若干步骤,逐一攻克。

但后来他发现,直接把照片扔给最新的模型,附上一句指令,它就能在原图上生成结果。没有中间应用,没有冗长流程,一步到位。

传统的产品逻辑是这样的:我有一个功能需求,所以需要搭建一套实现路径。这套路径本身,往往就是企业的护城河。用户为你的产品买单,很大程度上是因为你把这条路径做得更流畅、更稳定,或者成本更低。

然而,当模型能力足够强大时,路径本身就不再稀缺了。用户要的从来不是一个做图片标注的应用,他们真正要的只是看到这道菜长什么样。一旦结果能被直接生成,那些围绕“如何实现”建立起来的产品,其存在理由就得打上问号。

首当其冲的,是那些核心价值在于格式转换的工具。各类文档转换服务、数据清洗工具、格式适配层,过去解决的是“系统看不懂原始文件”的问题。但当模型能够直接理解原始输入时,这些中间转换环节就成了多余的累赘。

同样,低代码平台的一部分核心价值也在被重新定义。它们原本的使命是降低分解步骤的门槛。但如果未来做事的方式,本身就从“分解步骤”变成了“描述目标”,这类平台要么必须向更深的行业专业领域扎根,要么就得回答一个致命问题:当生成能力接近免费时,你到底在帮用户解决什么?

如果你的价值是把复杂的事情拆成一步步的操作,这件事正在变得不再稀缺。但如果你的价值是帮用户判断“什么结果才算对”,这件事反而变得前所未有的重要。

以前做事,是把步骤理清楚;现在做事,是把目标讲清楚。

第二节|人机分工正在重构

谈到像 OpenClaw 这类智能体的爆红,Andrej Karpathy 打了个生动的比方:

“现在的智能体,很像实习生。”

它们可以独立完成一大段工作,在某些环节上表现稳定,又会在一些细节上犯下让人哭笑不得的错误。

Karpathy 指出,未来有一个核心标准决定了哪些事情会被机器完全接管:可验证性。

如果一件事的结果可以被清晰地判断对错——比如代码能不能跑通、数据符不符合格式——那它就很容易被自动化。反之,如果一件事需要在多种可能性中做权衡,没有唯一标准,模型就很难单独完成。

但这并不意味着机器能做的事情是固定不变的。因为“可验证”的范围,一直在扩大。

过去,写代码被认为需要创造力,是不可验证的。但当你把它分解成“实现某个具体功能”时,它突然就有了验证标准:测试能不能过。同样,设计界面看起来很主观,但如果验证标准变成“是否符合品牌的视觉规范”,它也就变得可验证了。

所以,判断一个岗位会不会被影响,不能只看职位名称,得看它的工作有多少比例可以被分解成有明确验证标准的任务。

一个高级设计师,可能 80% 的时间都在做可验证的执行工作,只有 20% 在做真正的创意决策。这 20% 很安全,但那 80% 正在快速转移。

同样的逻辑也适用于会计、法务和客服。大量的规则验证、文档审查、标准问题响应,都在被自动化。但最终的签字责任、风险判断、复杂纠纷处理,依然需要人来承担。

于是,一个新的分工图景逐渐清晰:模型负责执行,人负责设定边界和方向。

人不再需要盯着每一个细节,也不需要死记硬背繁琐的操作步骤,但必须清楚一件更核心的事:这件事应该怎么被定义,什么样的结果才算正确。

“做”的环节交给机器,“定”的环节留在人手里。

不过,这种分工模式,会持续多久呢?

第三节|为 AGI 做准备

回答这个问题的,是 Demis Hassabis。在接下来的对话中,他给出了一个明确的时间判断:2030年。

这是他对 AGI(通用人工智能)实现时间的预测。距离现在,只有四年。

想想看,如果你今天开始创业,按通常的节奏,公司走向成功可能需要5到8年。而AGI,很可能就在这个时间窗口的中间点出现。

这绝不是一个可以忽略的变量。你必须思考,做什么东西在AGI到来时,依然具有不可替代的价值。

Demis 分享了他的观察:

“智能体的发展,我们才刚刚起步。过去几个月,人们才开始找到真正有价值的应用点。未来6到12个月,会有更大的进展。”

那创业者到底该怎么办?

他给出的建议很明确:结合AI与深科技(Deep Tech)。去做材料科学、医学,去做那些真正艰难的物理领域。这些方向有一个共同点:它们涉及真实的原子世界,通往成功的路上没有捷径。换句话说,它们不会被基础模型的下一次更新浪潮轻易洗牌。

在纯软件层面,变化太快了。今天你辛苦搭建的中间层,明天可能就被模型自身能力的提升给覆盖了。但如果你在解决一个需要深入理解物理世界、生物系统或材料特性的问题,护城河就会深得多。

公司要找护城河,个人也一样。

在这场峰会上,Andrej Karpathy 还有一句发人深省的话:你可以把思考过程交给AI,但你不能把理解力交给AI。

什么是理解力?

是知道问题到底出在哪,

是知道为什么这件事值得做,

是知道目标究竟该被如何定义。

Karpathy 发现,现在的他反而成了整个工作流的瓶颈。瓶颈不在于执行,而在于弄清楚到底要做什么以及为什么值得做。大语言模型可以无限生成、可以高效执行,但它无法替你理解一件事对于人类而言,为什么重要。

所以,什么变得更重要了?

记住API参数已经不重要了,掌握提示词技巧也不是核心。真正重要的是建立更深的理解——理解一个行业的底层逻辑,理解用户真正的需求,理解商业价值究竟从何而来。

你可以把“怎么做”交给AI,但你不能把“知道为什么”交给AI。

四年后,当AGI真正到来时,这种理解力的价值,会变得前所未有的清晰。

因为到那时,能被自动完成的动作会有无数个,能被一键生成的方案会有无数种。但依然需要有人去定义:到底什么值得被完成,什么值得被生成。

AI可以做无数件事,但只有人知道哪件事值得做。

结语|最后的护城河

过去,人围绕工具安排工作。

现在,工具开始深度参与工作。

接下来,人只负责决定方向,把实现彻底交出去。

你可以把思考过程交给模型,让它帮你生成、执行。但有一件事始终不能交出去:知道什么是对的,什么是真正值得去做的。

这是2026年的起点,也是接下来四年的主题。

免责声明

本网站新闻资讯均来自公开渠道,力求准确但不保证绝对无误,内容观点仅代表作者本人,与本站无关。若涉及侵权,请联系我们处理。本站保留对声明的修改权,最终解释权归本站所有。

相关阅读

更多
欢迎回来 登录或注册后,可保存提示词和历史记录
登录后可同步收藏、历史记录和常用模板
注册即表示同意服务条款与隐私政策