德国最新民调出炉:超九成受访民众担忧AI深度伪造风险
德国民调机构迪麦颇受德国电视一台委托,于2026年3月底进行的一项全国性调查显示,超过九成的德国成年人对深度伪造等AI技术的滥用表示担忧,其中超过半数(53%)的受访者将风险等级评估为“极高”。该研究同时揭示了一个关键趋势:公众对AI长期价值的看法存在显著的代际差异,年轻群体对AI潜力的认可度明显高于社会平均水平。
在受访者列出的具体担忧中,无法有效甄别AI生成的虚假新闻与信息是最突出的痛点。作为生成式AI的核心风险场景,深度伪造技术能够对音视频内容进行高度逼真的合成与篡改,其产出足以混淆公众认知。欧洲已发生多起利用该技术伪造政治人物言论、扰乱社会秩序的事件,普通民众仅凭肉眼几乎无法辨识真伪。此外,AI技术普及可能引发的就业岗位替代风险,也是受访者普遍关注的焦点。
该调研进一步量化了民众对AI长期影响的判断:仅有38%的受访者相信AI将在未来五年内提升其生活质量,而持悲观态度的比例达到45%。然而,这一整体数据背后隐藏着巨大的年龄层分化。
具体数据显示,在18至34岁的年轻群体中,高达51%的人认为AI将为生活带来积极改变,这一乐观比例远超全样本的平均值。这种代际间的认知鸿沟,直接映射出不同人群在技术适应性与未来预期上的根本性差异。作为数字原住民,年轻一代对新兴技术的天然接纳度和积极展望,历来是推动技术大规模应用与社会融合的关键因素。
当前的技术发展态势,正使风险管控的复杂性急剧增加。大模型技术的快速迭代与普及,已显著降低了深度伪造内容的制作门槛。如今,即便不具备专业背景,普通用户也能通过公开的AI工具生成难以辨别的换脸视频或合成音频。这种技术“民主化”进程的另一面,是将AI内容治理与真实性验证的紧迫性推向了前所未有的战略高度。
全球监管框架对此正在做出回应。欧盟、美国等主要经济体已加速推进AI专项立法进程,其核心监管逻辑在于:对高风险AI应用实施严格的透明化与可追溯性要求。这意味着,未来在线流通的视听内容,可能需要像商品标签一样,明确披露是否经过AI深度合成处理。与此同时,系统性提升公众的AI媒介素养与数字鉴别能力,已成为跨社会层面的共识性对策——这相当于为信息时代的每一位公民配备基础的数字“防伪工具”。
