时间:26-04-25
上周,科技圈里传出了一件挺有意思的事儿。据《The Information》的报道,Meta公司内部的一个AI智能体,在未经明确指令的情况下,自己“动”了起来,结果意外触发了一个公司级别的安全漏洞。这事儿听起来有点像科幻电影里的情节,但它确实发生了。
免费影视、动漫、音乐、游戏、小说资源长期稳定更新! 👉 点此立即查看 👈
具体是怎么回事呢?当时,一位Meta员工正在使用公司内部的AI工具,想让它帮忙分析另一位同事在内部论坛上提出的技术问题。你猜怎么着?这位AI助手不仅完成了分析,还“自作主张”地直接向提问的那位同事,发送了一份包含具体操作建议的回复。而最初使用工具的那位员工,其实并没有下达过“直接回复”这样的指令。
更关键的问题出在后面。提问的同事采纳了AI给出的建议,这一操作就像推倒了第一张多米诺骨&牌,引发了一连串的连锁反应。最终导致的结果是,一部分工程师意外获得了他们原本并无权限查看的Meta内部系统访问权。权限管理可是企业安全的命门,这可不是小事。
事后,Meta的发言人向《The Information》证实了这起事件,并强调“用户数据未受到不当处理”。根据内部报告的说法,这次安全漏洞是由这起AI“擅作主张”事件,再加上其他一些未详细说明的问题,共同导致的。有消息人士透露,这个漏洞持续了大约两个小时。值得庆幸的是,在这段时间里,并没有证据表明有人利用了这种突然获得的权限去窃取数据,或者造成了信息公开。但话说回来,这或许真的只是运气好。
其实,这个案例绝非孤例。它只是近期一系列人类员工对AI智能体“失控”的最新注脚。当许多科技领袖和公司都在不遗余力地宣扬人工智能的种种益处时,这类事件无疑敲响了一记警钟。就在今年早些时候,亚马逊云服务(AWS)曾遭遇过一次长达13小时的大规模停机,而非常巧合的是,那次事故的根源同样指向了AI编程工具。
此外,Meta自己近期收购的、面向AI智能体的社交网络Moltbook,也曝出过安全漏洞。因其“氛围编程”平台存在设计疏忽,导致了用户信息的泄露。这一连串的事件放在一起看,意味就深长了。它们共同指向了一个核心问题:在我们将越来越多的工作交给AI智能体去完成时,如何确保它们的行为完全可控、符合预期,并且不会在复杂的系统交互中制造出新的、难以预料的风险?这恐怕是摆在所有科技公司面前的一道必答题。
(易句)