「愤怒诱饵」太多,算法没法背锅
牛津词典将“愤怒诱饵”评为2025年度词汇,揭示了什么?
当“愤怒诱饵”(rage bait)被牛津词典选为2025年度词汇,一个流量驱动下刻意煽动公众愤怒的内容生态,便正式获得了它的时代标签。然而,将这一现象简单归咎于算法和“信息茧房”,或许是一种认知上的偏差。实证研究不断提醒我们,网络极化与信息封闭,更多源于人类自身的非理性心理机制——比如确认偏误、负面偏好,以及根植于社交本能的趋同心理。算法并非元凶,平台本身也在积极治理“恶流量”,推荐系统早已进化为兼顾多样性、具备“破茧”能力的多目标引擎。问题的核心,或许更在于用户自身的信息主权意识:你点击什么,算法才推荐什么。责任不在冰冷的代码,而在每一次有温度的选择。
很多时候,你以为的不平,可能只是钻进了精心设计的情绪陷阱;你感受到的不忿,或许只是吞下了精准投喂的愤怒诱饵。这层后真相时代的“窗户纸”,如今被一本权威词典捅破了。
什么是“愤怒诱饵”?定义很直白:故意用刺激性内容引发网民愤怒,借此收割流量。从摆拍的“儿媳给住院婆婆吃泡面”,到编造的“外卖骑手被顾客羞辱”,都是典型的操作。
▲牛津词典团队将「愤怒诱饵」评选为2025年牛津年度词汇。
现象本身无疑值得警惕。当愤怒能被批量生产为博取流量的工具,社会戾气必然加重,舆论生态也会随之劣化。
但观察舆论反应,一个有趣的模式出现了:不少人又陷入了“遇事不决,量子力学;归因无妨,信息茧房”的思维定式,将矛头径直对准了算法。“信息茧房”再次成为高频解释词。
在这种叙事里,“愤怒诱饵”的盛行,是算法编织的茧房提供了温床。这不禁让人联想到柏拉图的“洞xue寓言”——人们盯着墙上的投影争论不休,却对背后真正的光源视而不见。
01 愤怒的生意:非理性的人,与理性的平台
经济学家托马斯·索维尔有句名言:如果你认为人类总是理性的,那么,至少一般的历史是无法解释的。
“愤怒诱饵”为何大行其道?根源恰恰在于那三个字:非理性。
神经科学研究早已证实:大脑对负面刺激的反应,远比正面刺激更强烈、更持久。社会学中的注意偏向理论也指向同一结论:相比中性信息,情绪化内容总能更轻易地捕获个体注意力。
换句话说,当争议性话题出现时,用户投以更多关注,是一种本能。
流量捕手们深谙此道。他们的操作链条清晰可辨:先是“选饵”,精准识别那些自带冲突基因的话题,如性别对立、地域歧视、代际矛盾;接着“制饵”,将极端标签、反差情节、失真细节精心调配;然后“下钩”,通过耸动的标题、伪造的截图,点燃公众怒火;最终“收网”,完成流量变&现。
▲央视此前曾起底营销号靠摆拍「外卖员被顾客羞辱」系列视频起号。
说到底,“愤怒诱饵”是人性注意力机制的弱点,与流量饥渴下的行为扭曲,共同催生的产物。
那么,平台算法是否在助推这条“愤怒产业链”呢?一个常见的想象是:算法构建了“愤怒-互动-推荐-更多愤怒”的恶性循环。
但这更多是想当然。事实一再证明,用户频繁刷到制造对立的内容后,产生的负面情绪往往导向逃离而非沉迷,是卸载而非停留。一个充满戾气的社区环境,不仅商业价值骤减,还需承受巨大的监管风险。
这意味着,“愤怒诱饵”带来的“恶流量”,与平台在用户体验、内容安全和商业利益上的根本追求,存在本质冲突。平台有何动力去拥抱它?
答案早已体现在行动中。以抖音为例,今年推出的《社区热点信息和账号治理规则(试行)》,就旗帜鲜明地反对极端、煽动、引战内容,并对刻意制造冲突的“恶意营销号”进行重点治理。这释放的信号再明确不过:面对“愤怒诱饵”,平台扮演的是“过滤器”,而非“助推器”。
02 茧房迷思:是算法织茧,还是认知自缚?
无论是“愤怒诱饵”,还是之前的“傻子共振”、“算法离间”,这些新词引发的讨论,本质上都是“算法织茧说”的又一次回响。
在诸多社会议题纷扰的当下,将问题归咎于算法构筑的信息茧房,似乎成了一种思维惯性。但这看似化繁为简,实则可能是一种化约的惰性。
对此,需要厘清几个关键点:
第一,“信息茧房”是否存在尚存争议,但“认知茧房”真切存在。
“信息茧房”究竟是真实的赛博囚笼,还是想象的稻草人?学界至今莫衷一是。一个基本事实是,该假说在严谨的实证研究中从未被完全证实。
▲包括陈昌凤、喻国明在内的国内传播学者都曾提出,「信息茧房」没有实证研究佐证。
但这不等于“茧房效应”不存在。算法更像一个放大器,它在“人塑造环境”与“环境塑造人”的双向互动中,倍数级地还原了人性的多面。它既能放大向善的力量,也会暴露我们在信息获取上的路径依赖、在信息沟通上的社交衰退、在信息消化上的感情用事。这些弊端凝结成的,或许更应称之为“思维茧房”或“认知茧房”。
第二,信息偏食是人脑的“减负机制”,没那么可怕。
许多学者倾向于认为,信息茧房是伪命题,信息偏食才是真问题。就连该概念的提出者桑斯坦,也将症结归于“信息偏食”。
所谓信息偏食,其实是人脑基于“喜同恶异”的天性,自动开启的信息筛选模式,本质上是一种避免信息过载的自我保护。
第三,真正可怕的,并非算法,而是信息的单一控制与限量供给。
回想信息匮乏的时代,“茧房”是物理性的,因为别无选择。今天批判“信息茧房”的人,或许忘了在社交媒体出现之前,大众接收的信息渠道何其单一。
而在信息丰裕的今天,所谓的“茧房”更多是心理性的。它不由分发渠道决定,而由我们大脑的信息加工与选择机制塑造。
03 算法真相:是筑茧的狱卒,还是破茧的向导?
以上讨论,最终指向两个核心问题:“茧房”究竟如何形成?算法真的在筑茧吗?
先看第一个问题。
前不久,权威期刊《科学》发表了一篇题为《不要责怪算法:社交媒体可能天生就存在两极分化》的论文,介绍了阿姆斯特丹大学的一项研究。
▲《Science》发表论文称,即便没有算法,社交媒体也会存在极化现象。
研究团队搭建了一个极简社交平台,无任何个性化算法,仅保留发帖、转帖和关注功能,并投入500个设定好人格的AI机器人模拟互动。结果发现,无需算法干预,机器人在数万次互动后便自动形成对立阵营:立场相近的相互聚集,极端观点的传播速度远超中立内容。
结论清晰:“信息茧房”的形成并非算法所致,而是人类趋同避异社交本能的自然产物。即便没有算法,极化现象依然会在社交媒体上出现。
从社会心理学角度看,这很容易理解。人类的注意力与记忆机制,天生自带“筑墙”倾向。“确认偏误”让我们更关注符合已有观念的信息;“负面偏好”让我们对令人愤怒的事物记忆更深;“可得性启发”则让我们高估近期接触信息的重要性。
一个常见的场景是:算法可能推送了100条内容,其中80条符合兴趣,15条是多样性探索,5条是随机噪音。但用户的大脑往往会选择性遗忘那95条,唯独对那几条引发强烈情绪(愤怒或惊喜)的“极端”信息印象深刻。
杜克大学教授克里斯·贝尔在《打破社交媒体棱镜》中,甚至给出了一个“反直觉”的结论:强制让人接触对立观点,非但不会使其变得温和,反而可能强化其原有立场,使其更加极端。
言下之意,社交媒体上的认知封闭,本质是人类本性在网络空间的延伸。与其说是算法在制造茧房,不如说是人类认知系统自身在编织滤网。
▲权威学术期刊《自然》杂志也曾发表论文,用实验证明没有证据表明算法是两极分化的关键推手。
再看第二个问题:算法会筑茧吗?
如果算法只推送用户想看的、爱听的,那确实会。但现实是,主流平台的算法早已进化。
以抖音算法为例,它早已从单一的兴趣匹配,进化为多目标优化体系。它不仅考虑“用户喜欢什么”,更会主动控制相似内容的出现间隔与频次,强制插入多样性内容,并通过随机推荐、社交关系拓展、搜索联动等方式,帮助用户突破既有兴趣圈。
例如,其“使用管理助手”功能就颇具代表性。用户不仅能直观看到自己的兴趣分布,还能通过“探索更多”主动增加多样化信息供给。在这里,算法更像一个对外探索的向导,而非向内筑茧的狱卒。
▲用户可以点进「使用管理助手」页面,设置时间锁、休息提醒和进行内容管理。
著名传播学者喻国明甚至认为,智能算法推荐具有反信息茧房的本质,“采用多种算法的信息分发平台……总体上能够有效地避免‘茧房效应’的发生”。换言之,算法非但不筑茧,还能破茧。
这并非空谈。抖音公布的“双塔召回模型”,正是通过将用户和内容转化为高维数学向量,实现脱离具体语义的精准匹配,从而发掘用户的潜在兴趣,让用户刷到“意料之外,情理之中”的内容。
凯文·凯利在《必然》中曾描绘“理想过滤器”的模样:它能推荐“朋友喜欢而我还不知道的”,以及“我现在不喜欢,但想尝试去喜欢”的东西。现在看来,算法的持续进化,正让这一设想逐步成为现实。
04 祛魅之后:信息主权重归用户
当然,这并非宣称算法已臻于完美,而是指出,许多人对算法的恐惧与敌意,源于不解与误解。
如何消除?答案在于算法透明化,以此祛除“算法魔法化”的想象。
过去,“商业秘密”是横在算法透明化面前的一堵高墙。但今年以来,一个明显趋势是,以抖音为代表的中国互联网公司开始主动拆“墙”。
从建立安全与信任中心、上线官网披露算法细节,到举办开放日、全面升级使用管理工具、召开“算法向善”专家研讨会……一套包含规则阐释、案例解析、互动答疑的多维沟通体系正在形成,让算法从黑箱走向透明。
▲抖音安全与信任中心官网上公布了详细算法原理。
这本质上是以“祛魅”来消除大众对“不受控制的技术权力”的担忧。当平台将如何通过“多目标建模”平衡短期互动与长期价值、如何设置“多样性约束”避免内容重复、如何引入“探索因子”突破兴趣固化等原理公之于众,算法的“可理解性”本身就成了公共产品。
阻击算法污名化的最好方式,就是将其置于“可解释、可参与、可监督”的透明化框架下。如此一来,用户终将明白:算法并非独立的价值主体,而是人类行为的映射;不是神秘的巫术,而是可监督、可改进的工具。它既不全能,也非万能。
在平台的媒体沟通会上,听算法工程师解释为何我们看到的是内容A而非内容B,听运营负责人阐述“优质内容”的定义,会让人清晰感受到两点:其一,将复杂的社会结构性问题简单归结为算法原罪,在自己作茧自缚后怪罪算法织茧,这是一种归因偏差;其二,很多时候,技术本身不是问题,放弃人的自主性与判断力才是。
回到“愤怒诱饵”现象,它的大量存在,算法实在背不了这个锅。不能因为算法“不会说话”,就让它充当标靶。
算法确有其局限,但解决之道绝非打倒算法,而是让它在阳光下运行,让公众理解其原理,让平台履行治理责任,最终,让用户重掌信息主权。唯有承认其局限、善用其价值,那个人与技术共处的未来才会愈发清晰。
这其中,用户自身的信息主权意识至关重要。正如纳萨尼尔·霍桑所言:你关注什么,最终你就成为什么。换一个更直接的表述就是:每个人,都是自己信息接收情况的第一责任人。
因为最终决定你信息流走向的,不是那一行行代码,而是你每一次的点击、停留与互动。你接收什么,终究由“你”不由“算”。







