​OpenAI 联合创始人创建新公司,要解决安全超智能问题

2026-05-02阅读 0热度 0
其他

OpenAI 联合创始人创建新公司,要解决安全超智能问题

​OpenAI 联合创始人创建新公司,要解决安全超智能问题

人工智能领域传来一则重磅消息。OpenAI 联合创始人 Ilya Sutskever 日前正式宣布,今年5月卸任 OpenAI 首席科学家后,他将投身于全新的创业项目。他正与 OpenAI 前同事 Daniel Levy,以及苹果前人工智能主管、Cue 联合创始人 Daniel Gross 联手,共同创办一家名为 Safe Superintelligence Inc.(简称 SSI)的公司。这家初创公司的目标相当明确,也异常宏大:致力于构建安全的超级智能。

孤注一掷的单一使命

在其官网发布的声明中,创始团队毫不掩饰他们的雄心与紧迫感。他们直指核心,将构建安全的超级智能定义为“我们这个时代最重要的技术问题”。那么,他们的具体思路是怎样的?用他们自己的话说,“安全性和能力对我们而言是一体两面,需要通过革命性的工程与科学突破来解决。”更关键的是,他们的策略极具聚焦性:计划在最短时间内提升AI的能力,但同时确保安全性永远是跑在最前面的那一个。这听起来是个巨大的挑战,但他们似乎决心“直线推进”,将全部精力和资源都押注在“一个目标、一个产品”上。

何为超级智能?

说到这儿,或许你会问:究竟什么是“超级智能”?这并非一个已经存在的技术,而是一个推演出的概念。它指的是一种假设中的智能实体,其智慧水平将远超最聪明的人类。可以把它想象乘人工智能进化的下一个,也可能是终极形态。正是这种潜在的“碾压级”能力,让它的安全性问题变得无比尖锐和紧要。

从 OpenAI 到 SSI:一条未竟之路的延续

其实,Sutskever 此次创业,在很大程度上是他 OpenAI 时期核心工作的延续与深化。在 OpenAI 内部,他曾是“超级对齐”团队的领军人物,这个团队的核心任务,就是研究如何控制未来可能出现的、极其强大的人工智能系统。不过,随着 Sutskever 的离职,这个团队也随之解散,这一决定甚至引来了团队前联合负责人 Jean Leike 的公开批评。如今看来,创办 SSI 就像是 Sutskever 将自己的研究火种带出,决心在一个更专注的新环境中将其点燃。

当然,提及 Sutskever 在 OpenAI 的过往,很难绕过2023年11月那场轰动全球的“宫斗”风波——他当时在短暂罢免首席执行官 Sam Altman 的行动中扮演了关键角色。尽管他后来对此表达了悔意,但这段经历无疑也反映了在探索AI前沿时,技术路径与治理理念可能产生的剧烈碰撞。

聚焦的力量

无论如何,Safe Superintelligence Inc. 的成立,标志着一支顶尖团队正以创业公司的敏捷与专注,重新向“安全超智能”这一终极难题发起冲锋。告别大公司的复杂生态与多重目标,他们选择了一条最为纯粹、也最为艰险的道路:将所有筹码都押注于单一问题的解决上。这条路能否走通,能否在追求极致能力的同时牢牢锁住安全的缰绳,整个业界都将拭目以待。

免责声明

本网站新闻资讯均来自公开渠道,力求准确但不保证绝对无误,内容观点仅代表作者本人,与本站无关。若涉及侵权,请联系我们处理。本站保留对声明的修改权,最终解释权归本站所有。

相关阅读

更多
欢迎回来 登录或注册后,可保存提示词和历史记录
登录后可同步收藏、历史记录和常用模板
注册即表示同意服务条款与隐私政策