网信办专项整治AI应用乱象:剑指AI盗脸与AI投毒,权威解读与防范指南
AI“盗脸”、数据投毒、“托管”刷量?为期四个月的专项整治来了
生成式人工智能的浪潮席卷而来,在带来无限可能的同时,也伴生着一些亟待规范的乱象。从AI“换脸”假冒他人,到恶意“数据投毒”污染模型,再到利用AI“托管”技术模拟真人进行网络营销,这些行为不仅扰乱网络秩序,更触及法律与伦理的底线。针对这些问题,一场全国性的专项整治行动已经拉开帷幕。
本次专项行动将分两步走:第一阶段聚焦于“AI应用服务典型违规问题”,第二阶段则针对“AI信息内容乱象”。中央网信办已明确要求,各地网信部门需压实属地管理责任,督促相关平台全面自查、深入整改,不仅要堵住当下的漏洞,更要建立起长效治理机制,切实提升技术防控能力,确保整治工作落到实处、见到实效。
整治AI“换脸换声”“复活逝者”等乱象
随着“深度合成”技术门槛的降低,其滥用风险日益凸显。此次专项行动将几类突出的信息内容乱象纳入了重点打击范围。
首先是“魔改”经典与制造“数字泔水”的问题。具体而言,包括滥用AI技术歪曲解构优秀传统文化、历史人物或典故,例如对古典名著或经典影视作品进行低俗、暴力的“魔改”,恶搞其精神内涵,碘伏重要人物形象。同时,那些批量生成的、逻辑混乱、价值空洞,甚至带有错误价值观和扭曲文化认知的“数字泔水”类内容,也将被重点清理。
其次,是备受关注的“假冒仿冒”行为。专项行动为此划出了清晰的红线:严禁利用AI“换脸”“换声”技术假冒公众人物发布不实信息,欺骗网民乃至非法牟利;禁止生成合成含有攻击、抹黑、贬损他人内容的信息;未经授权,不得生成合成与公众人物的合影、亲密照等图片视频。此外,不当使用AI技术“复活逝者”、滥用逝者个人信息的行为,同样在整治之列。
不仅如此,利用AI技术从事网络水军活动,也成为监管的焦点。例如,部分机构或个人通过AI“托管”技术,模拟真人批量注册、运营社交账号,并发布大量低质、同质化的内容。专项行动还将整治由此衍生的非法交易账号、使用AI群控软件和社交机器人刷量控评、制造虚假流量数据、炮制虚假舆论热点等一系列违规行为。
剑指AI数据投毒,从源头规范AI应用服务行为
如果说整治信息内容乱象是治理“下游”,那么本次行动的第一阶段则直指技术“上游”,旨在从源头规范AI应用服务的开发与训练行为。
首要一点,是严格落实大模型备案登记义务。专项行动将严厉查处未按《生成式人工智能服务管理暂行办法》要求履行备案登记程序的“应备未备”行为。
在数据治理层面,监管利剑指向了“AI数据投毒”这一源头性风险。重点整治的行为包括:通过篡改训练语料、伪造权威数据、利用生成式搜索引擎优化(GEO)技术进行恶意营销等方式,对AI模型实施数据投毒。此外,炒作、教授AI数据投毒方法,在电商平台兜售相关教程及工具的行为,同样会被打击。对于模型在生成回答时,对引用信源缺乏交叉验证和风险提示、未标注引用信息链接等情况,监管也不会放过。
最后,在生成合成内容的标识管理上,专项行动将处理多类落实不到位的问题。例如,未按《人工智能生成合成内容标识办法》及配套标准添加标识,或标识的大小、位置、透明度不规范;未履行跨平台隐式标识互认义务,未在生成内容周边添加显著提示,或对合成内容的识别能力不足。甚至,那些教授如何去除AI标识、提供违规“去标识”工具服务的信息,也将被一并清理。
可以预见,这场为期四个月的“清朗”专项行动,将从技术开发到内容传播的全链条入手,为AI技术的健康发展划清赛道、扫除障碍。其成效如何,关乎我们未来将面对一个怎样清朗、安全的数字空间。
