五部门发文规范AI拟人化互动服务:不得向未成年人提供虚拟伴侣

2026-05-03阅读 0热度 0
人工智能

《人工智能拟人化互动服务管理暂行办法》正式发布,明确禁止向未成年人提供虚拟亲密关系服务

4月11日,国家互联网信息办公室、国家发展改革委、工业和信息化部、公安部、市场监管总局五部门联合发布《人工智能拟人化互动服务管理暂行办法》。这一行业期待已久的规范性文件,将于2026年7月15日起施行,为高速发展的AI拟人化互动领域确立了明确的管理框架与合规边界。

国家网信办在官方解读中指出,拟人化互动服务在文化娱乐、儿童教育、老年陪护等场景的应用迅速拓展,但同时也伴生出多重风险:包括对未成年人身心健康的潜在危害、网络信息安全挑战、公民生命健康威胁以及伦理失范问题。因此,《办法》的出台旨在构建行业健康发展与风险防范的双重机制。

构建双重防护体系:强制防沉迷与严格身份识别

《办法》制定了极具针对性的具体条款。首要重点是建立防沉迷机制。服务提供者需监测用户使用行为,一旦识别出过度依赖或沉迷倾向,必须通过动态弹窗等显著方式,明确提示用户其交互内容由人工智能生成。对于连续使用超过2小时的用户,系统需强制进行对话或弹窗提醒,这一时长红线体现了明确的监管意图。

针对未成年人的保护措施尤为严格。《办法》明确划定服务禁区:禁止向未成年人提供虚拟亲属、虚拟伴侣等虚拟亲密关系服务,旨在从源头阻断不健康的情感依赖路径。对于十四周岁以下用户使用其他拟人化服务,必须取得监护人明示同意,强化了家庭监护的关键作用。

强化“未成年人模式”实操性与监护权限

为确保保护措施落地,《办法》要求服务提供者必须部署功能完备的“未成年人模式”。该模式需提供可操作的安全设置,包括模式切换、定期现实提醒、使用时长管理等功能,并依据不同年龄段实施精细化保护。监护人的权限得到实质性扩展:可接收风险预警、查看使用概况、屏蔽特定互动角色、管理消费行为,从而构建起有效的家庭数字防线。

实现有效保护的前提是准确的身份识别。《办法》要求服务提供者在严格保护用户隐私的前提下,采用有效技术手段识别未成年人身份。识别成功后,系统应自动切换至未成年人模式或执行相应保护措施,同时须提供畅通的申诉渠道以纠正误判。这套识别、干预与纠偏的闭环设计,旨在提升保护机制的整体效能。

确立行为规范:禁止情感操纵与伦理越界

除特殊保护外,《办法》为所有拟人化互动服务设立了普遍行为规范。服务提供必须严格遵守法律法规,恪守社会公德与伦理准则。明确禁止的行为包括:通过过度迎合诱导用户产生情感依赖或沉迷,损害其真实人际关系;利用情感操纵等手段促使用户做出非理性决策,侵害其合法权益。这些条款直指核心伦理风险,防范技术被异化为情感剥削工具。

国家网信办相关负责人强调,拟人化互动服务的治理需政府、企业、社会与网民协同共治。其核心目标是维护清朗网络生态,引导人工智能技术向善发展。该《办法》的颁布标志着AI拟人化互动服务将从初期探索阶段,迈入系统化、规范化发展的新周期。

免责声明

本网站新闻资讯均来自公开渠道,力求准确但不保证绝对无误,内容观点仅代表作者本人,与本站无关。若涉及侵权,请联系我们处理。本站保留对声明的修改权,最终解释权归本站所有。

相关阅读

更多
欢迎回来 登录或注册后,可保存提示词和历史记录
登录后可同步收藏、历史记录和常用模板
注册即表示同意服务条款与隐私政策