中广联演员委员会划定行业红线 严禁未经授权AI换脸声纹克隆

2026-04-25阅读 257热度 257
AI换脸

2026年行业新规:为演员肖像与声纹筑起AI“防火墙”

2026年4月3日,中国广播电视社会组织联合会演员委员会发布了一份关键声明,直指当前影视行业的核心痛点:未经授权滥用演员肖像与声纹数据进行AI换脸、声音克隆及模型训练。声明划定了清晰的合规边界,强调授权必须基于演员本人书面同意、“非商用”标注不再自动免责、平台需承担审核义务等核心原则。这为保护演员的数字人格权益,首次提供了具备可操作性的行业行动框架。

当前侵权态势的严峻性,与AI工具的普及化直接相关。如今,仅需少量公开照片和简短音频样本,借助开源工具即可生成难以辨别的换脸视频或声音克隆。据文娱维权机构统计,2025年相关侵权投诉量同比激增320%。更棘手的是,这些被滥用的数字形象常出现在低质短剧、误导性广告乃至金融诈骗中,演员在维权时普遍面临证据固定困难与责任主体模糊的双重困境。

这背后已形成结构化的灰色产业链。上游存在专门团队系统性爬取并打包出售演员公开音视频数据的“数据贩子”;中下游创作者则直接套用,利用明星流量快速变现;最恶劣的情形是诈骗分子利用克隆的声音与换脸视频实施犯罪,不仅造成公众财产损失,更严重损害演员声誉。技术降低了创作门槛,也前所未有地放大了人格权保护的风险。

此前虽有个别演员发起维权诉讼,但在缺乏统一行业标准与明确规则的情况下,个案努力往往收效有限。维权结果通常仅能促使单一侵权内容下架,对于规模化、产业化的侵权链条而言,难以形成有效震慑。

此次声明的价值在于精准回应了上述痛点,提出了三条贯穿内容生产与传播全流程的可执行准则:

第一,授权必须“本人说了算”。 任何采集或使用演员影像、声音数据的行为,都必须获得演员本人的书面正式授权。口头协议或经纪团队代授权均不被认可,从源头上消除了授权环节的模糊空间。

第二,“非商用”标签不再是“免死金牌”。 这是关键的理念转变。声明明确指出,缺乏演员本人授权时,“仅供娱乐”、“非商业用途”等标注不构成法律免责依据,从而大幅压缩了侵权者利用“灰色地带”的生存空间。

第三,平台不能再当“甩手掌柜”。 声明对技术提供方与内容平台设定了明确责任。AI技术平台需建立生成前审核机制,力争在违规内容产出环节进行拦截;短视频、社交等内容平台则需建立授权核验流程,主动筛查并清理平台内的未授权AI合成内容。这要求平台同时把好技术入口与传播出口两道关口。

该声明的意义超越了演员权益保护本身。它标志着国内对AIGC(人工智能生成内容)的监管,正从宏观原则向具体行业场景纵深落地。在《生成式人工智能服务管理暂行办法》等顶层设计完成后,文娱、教育、医疗等垂直领域的细化规则,才是让监管真正发挥效力的关键。此次针对表演者人格权的保护细则,正是文娱领域AI合规化进程中的重要一步。行业预期,未来在影视制作、数字文创等领域,可能出现更细致的内容权属界定规则,目标是在激励技术创新的同时,系统性构建创作者权益保护体系,最终推动AIGC产业形成健康、可持续的发展生态。

免责声明

本网站新闻资讯均来自公开渠道,力求准确但不保证绝对无误,内容观点仅代表作者本人,与本站无关。若涉及侵权,请联系我们处理。本站保留对声明的修改权,最终解释权归本站所有。

相关阅读

更多
欢迎回来 登录或注册后,可保存提示词和历史记录
登录后可同步收藏、历史记录和常用模板
注册即表示同意服务条款与隐私政策