美国政府与科技巨头达成协议 评估 AI 模型的国家安全风险
美国政府与科技巨头达成协议:AI模型发布前需接受国家安全审查
最近,科技圈发生了一件值得关注的事:美国商务部下属的人工智能标准与创新中心(CAISI)牵头,与谷歌DeepMind、微软以及马斯克的xAI等几家头部公司签署了协议。核心内容很简单,却分量十足——未来,这些公司打算向公众发布的新人工智能模型,其早期版本需要先交给政府“看一看”。
这可不是走个过场。CAISI在官方声明中讲得很清楚,这套审查流程的目标,是为了在新型强大AI的能力与国家安全之间,找到一个稳妥的平衡点。用中心主任克里斯・福尔的话说,独立且严格的测量科学,是识别那些与网络安全、生物安全甚至化学武器相关潜在风险的关键工具。说白了,这份协议就是希望在技术发展的关键节点上,给公共利益多上一道保险。
其实,开发者提前与政府分享未发布AI模型的信息,在业内已经不算新鲜事。这种做法的好处显而易见:能让监管方更早、更全面地评估技术可能带来的能力与风险。尤其是近几年,随着类似Anthropic公司“Mythos”这样的新一代AI模型出现,外界对其潜在危险的担忧与日俱增,这类前置审查协议的重要性自然也就水涨船高。
这种担忧并非空xue来风。无论是科技公司内部的AI安全专家,还是政府部门的官员,大家心里都绷着一根弦:如此强大的模型,万一被别有用心的黑客利用了呢?正是出于这种考量,Anthropic公司不仅主动限制了“Mythos”的推广范围,还发起了一个名为“玻璃之翼”的合作项目,意图联合多家科技公司的力量,共同为全球关键软件的安全保驾护航。
视线转回监管层面。尽管有消息称特朗普政府曾考虑通过行政命令来加强对AI工具的监督(该说法已被政府方面否认),但全球范围内的协同动作已经展开。比如微软,就在英国宣布与政府支持的人工智能安全研究所达成了类似的测试协议。这传递出一个明确信号:对于涉及国家安全与公共安全的风险测试,离不开产业界与政府之间紧密、深入的合作。
划重点:
1️⃣ 美国政府与谷歌 DeepMind、微软及 xAI 达成协议,审查 AI 模型的国家安全风险。
2️⃣ CAISI 强调独立的测量科学对于理解 AI 模型的能力与风险至关重要。
3️⃣ AI 安全专家对强大模型被黑客利用的潜在风险表示担忧,科技公司正联合保护关键软件安全。
