为何在意见趋同的圈子里,立场更易走向激烈?当下,互联网传播中人云亦云、盲从附和的做法,让“意见共振”现象越来越频繁地出现,并推动传播生态极端化。在社会学与传播学研究中,早已有大量理论能够解释这一现象。从回音室效应到群体极化再到模因传播,都为此提供了学理框架。
互联网让这些机制进入了加速状态。首先,在个体层面,人类天生更容易被情绪驱动,尤其是带有道德色彩的愤怒或嘲讽。这类语言一旦进入社交网络,很容易获得超常的点击与转发。心理学实验证明,道德化情绪能显著提高传播效率,这意味着“共振”的火种往往是情绪,而非事实。
其次,在群体层面,社交媒体的同温层效应进一步加剧了极化。人们聚集在意见趋同的圈子里,原本温和的态度容易被推向极端。这种现象在社交媒体上屡见不鲜:讨论一旦进入闭环,立场很快走向激烈。
在叙事层面,传播学中有一个概念叫“框架共振”。当一个叙事框架与受众的观念对齐时,就会触发广泛的模仿。一个轻巧的组合词,把复杂的学理压缩成可传播的笑点,让公众“秒懂”并快速复制。
而互联网算法则是这种“共振”的放大器。主流平台的推荐机制,本质是预测用户会点什么,从而在排序上优先推送引发互动的内容。结果是情绪化、戏谑化的信息被进一步抬升,形成了自我强化的反馈回路。部分研究对互联网推荐算法做过审计,发现推荐对极端内容确有放大作用;而其他研究则指出算法影响有限,更多是用户自身的选择。但无论结论如何,一个共识是:当人性弱点遇上算法放大器,“共振”几乎不可避免。
这带来了多重后果。其一是公共议题的浅化与情绪化,复杂的事实被简单口号取代,真相往往来不及辟谣就被新一轮笑点淹没。其二是社会立场的两极化,甚至出现“反向反弹”效应:越想强行打破偏见,越可能加深分裂。其三是治理困境,平台既要依法维护言论自由,又要控制谣言与极化,这让监管与企业都面临两难。
那么,应对之道在哪里?一方面,学界提出了“免疫接种”式的信息教育,即在谣言传播前,用短视频、图解等方式让公众提前识别操纵手法。有研究显示确能降低公众受骗率。另一方面,平台可以在推荐链路中加入“摩擦”,例如“转发前先阅读”,或对传播过快的内容设冷却机制。这些措施也可以降低传播的瞬时爆炸性。
更有意思的是,反击这种“共振”的最好方式,往往不是正经辟谣,而是“反模因”:既然群体被笑点驱动,那就用更有趣的“反笑点”去削弱错误叙事的势能,让用户在娱乐中被引导到事实入口。这种“以梗制梗”的方式,或许比冷冰冰的数据更有效。
“跟风式”传播现象本身就是互联网语言创造力的缩影。它把外语世界里庞杂的学术理论压缩成一个带戏谑色彩的短语,不仅让人会心一笑,也为我们提供了一种观察数字社会的独特视角。它提醒我们:人类的群体非理性并不新鲜,真正的新,是互联网与算法让这一切发生得更快、更猛、更不可控。
我们需要的不仅是批评与讽刺,更是对传播机制的理解与治理手段的创新。唯有如此,才能避免在数字时代,所有人都沦为“共振”的俘虏。
(作者系清华大学新闻学院、人工智能学院双聘教授)
来源:沈阳/新华每日电讯