谷歌 AI 原则生变:删除“不用于武器”的承诺

2026-05-01阅读 0热度 0
其他

谷歌 AI 原则生变:删除“不用于武器”的承诺

这周科技圈有个不大不小的动向,值得关注。彭博社率先发现,谷歌在其官网的“人工智能原则”页面上,悄悄删除了一个重要的承诺声明。具体来说,那个名叫“我们不会追求的应用”的章节,在上周还能看到,但现在已经不见了。这一部分内容,原本明确表示谷歌不会开发用于武器或监控的人工智能。

谷歌 AI 原则生变:删除“不用于武器”的承诺

面对外界的询问,谷歌方面没有直接解释这一改动,而是向媒体提供了一篇关于“负责任人工智能”的新博客文章作为回应。文章的表述很官方,大意是:秉持这些价值观的公司、政府和组织应该携手合作,共同开发能够保护人类、促进全球增长并支持国家安全的人工智能。你看,字里行间虽然强调了合作与责任,但与之前斩钉截铁的“不用于武器”相比,措辞显然发生了微妙变化。

翻看更新后的人工智能原则页面,谷歌依然承诺会努力“减少意外或有害的结果,并避免不公平的偏见”,并确保其AI发展符合“广泛接受的国际法和人权原则”。这些表述本身没有问题,甚至可以说是行业的标准话术。但问题在于,原来那条清晰的红线被拿掉了。

话说回来,这种转变并非无迹可寻。近年来,谷歌与美国和以色列军方签订的云服务合同,在公司内部就曾引发过不小的抗议浪潮。谷歌一直对外坚称,其人工智能技术不会被用于伤害人类。然而,另一个声音也值得注意:美国国防部的人工智能负责人近期曾向媒体透露,一些公司的人工智能模型,确实正在加速美军“杀伤链”的流程。两相对比,现实情况与理想原则之间的张力,已经显而易见。

免责声明

本网站新闻资讯均来自公开渠道,力求准确但不保证绝对无误,内容观点仅代表作者本人,与本站无关。若涉及侵权,请联系我们处理。本站保留对声明的修改权,最终解释权归本站所有。

相关阅读

更多
欢迎回来 登录或注册后,可保存提示词和历史记录
登录后可同步收藏、历史记录和常用模板
注册即表示同意服务条款与隐私政策