Article header

揭秘“信息茧房”叙事:为什么过滤气泡只是个神话

用户绝非算法隔离下无助的受害者,用户拥有能动性和天生的好奇心,而算法已经演变为迎合我们寻求多样性的天性。“信息茧房”在很大程度上是一个误导性的叙事——一个由于焦虑,有时甚至是由于精心设计而被放大的神话。它提出的问题,根据现有的最佳证据,远没有假设的那么严重,在某些情况下很大程度上是虚构的。所以,下次当你听到“打破你的回声室!”时,请持保留态度。是的,努力去理解不同于你自己的视角——但要在你自己的主导下去做,而不是出于担心自己是个性化囚徒的恐慌。过滤气泡恐慌的讽刺之处在于,它本身已变成了一个被用来将人们推向各种方向的“梗”。通过认识到我们不是数字牢笼里的卡通人物,我们既可以沉溺于个人品味,又可以保持对更广阔世界的认知。算法会继续给你展示猫片,同时偷偷塞进偶尔的新话题;你的朋友圈会发布熟悉的梗,同时也会偶尔出现对立的文章。拥抱这种混合。最终,人类的好奇心往往会刺破任何过于狭窄的气泡。信息茧房的神话低估了技术的复杂性,更重要的是,它低估了人类成长的能力。

揭秘“信息茧房”叙事:为什么过滤气泡只是个神话

引言

“信息茧房”(Information Cocoon)这个词——在英语中通常被称为“过滤气泡”(Filter Bubble)或“回声室”(Echo Chamber)——已经成为算法时代一个广为人知的“洪水猛兽”。自从社交媒体和短视频应用上的个性化内容推送兴起以来,人们一直被警告要“避免生活在信息茧房中”,要“听取不同的声音”。人们担心推荐算法只展示我们已经喜欢的内容,将我们困在同质化的信息泡泡中,并加深我们的偏见。甚至美国前总统巴拉克·奥巴马也曾提到“过滤气泡”是对民主的威胁,无数评论家将政治极化归咎于社交媒体通过这些回声室产生的负面影响[1][2]。在中国,“信息茧房”这一概念在技术批判中被频繁引用,以至于它几乎失去了原本的含义[3]。它已经成为人们对互联网焦虑的“万能替罪羊”[4],每当讨论算法的危害或互联网在隔离人群中的作用时,它就会被例行公事地引用。但这种叙事究竟有多少是真实的,又有多少是神话?

经典“过滤气泡”概念示意图:中间的人(黄色圆圈)被他们已经认同的信息所包围,与外部思想(白色箭头)隔绝[5]。这种流行的叙事警告说算法会将我们困在这样的气泡中,但越来越多的证据表明,这种担忧被大大夸大了。

正如我们将看到的,“信息茧房”叙事建立在脆弱的基础之上。许多学者和技术专家认为,这在很大程度上是一个神话或宣传策略——一个为了意识形态或商业目的而被夸大的未经证实的逻辑[6][7]。事实上,推销对过滤气泡的恐惧本身可能服务于某种战略议程:通过说服用户,让他们相信自己当前的世界观只是一个人造的气泡,宣传者可以敦促他们“打破束缚”并拥抱“新信息”(通常就是宣传者自己的信息)。在探讨这一角度之前,让我们先审视过滤气泡理论背后的两个核心假设,以及为什么它们经不起推敲:

  1. 人类的偏好是静态的,永远不会自行改变。 如果一个人喜欢某样东西,且其环境保持不变(即他们持续看到相同的信息),他们就会无限期地继续喜欢那样东西。换句话说,人们被认为缺乏寻求消费改变或新奇事物的内在动力。
  2. 算法只喂养我们同样的东西,从不提供新内容。 推荐系统被假设为展示与我们已有互动相似的内容。根据这一前提,算法不会“破圈”引入不同或对立的信息。随着时间的推移,这将导致用户的信息摄入越来越狭窄,将他们锁在一个自我强化的循环中。

这两个假设是**“信息茧房”理论的基础**,然而两者都存在严重缺陷——正如一些批评者所言,甚至是“荒谬的”。下面,我们将深入探讨为什么人类不是永远停留在一种口味上的被动生物,以及现代平台实际上是如何运行其算法的。

人类品味在演变:人不会被困在同一个“茧”里

第一个假设——即除非被迫,否则人们固有的认知和偏好永远不会改变——这与日常生活经验相悖。人类不是口味一成不变的静态生物。现实中,大多数个人的兴趣和观点会随着时间的推移而演变,这通常是自发的,或者是受环境中微妙影响的结果。如果一个人一生中喜欢的食物、穿着风格或娱乐方式完全相同,且从未寻求过任何改变,那是极度罕见的(正如提示词所挑衅性建议的,这几乎达到了“精神疾病”的程度)。相反,心理学研究和消费者行为研究表明,人们天生就会寻求多样性和新奇感:

  • 多样性寻求行为(Variety-Seeking Behavior): 反复进行相同的选择会导致饱和感和厌倦感,因此消费者倾向于转换口味,即使他们本可以继续购买最喜欢的选项[8]。经典的营销研究发现,人们会为了获得“新鲜”体验而刻意尝试新产品或品牌,即使首选方案依然可用[9]。这种寻求多样性的特质是普遍的——在摄入过多相同事物后渴望改变是人类的天性。在日常生活中,我们不会每天吃同样的饭菜;我们的时尚潮流在多年间极度摇摆;我们30岁时的爱好和音乐品味通常与青少年时期大不相同。人类的偏好具有内在的动力。
  • 内省与自我改变: 人类还具有自我反思和自我矛盾的能力。我们经常挑战自己的信仰并“寻求不同的自我”。在哲学层面,格奥尔格·黑格尔(Georg Hegel)将意识的发展描述为一个辩证的过程——正、反、合的螺旋式上升——每个阶段都否定前一个阶段,从而导致成长。在《精神现象学》中,黑格尔将人类精神描绘成通过矛盾不断迭代和自我修正的过程。简而言之,人们可以并且确实从内部改变自己。他们并非永远“受困”于一种心态并等待外部冲击。即使是我们的逻辑推理也并非无懈可击或线性的——正如伊曼纽尔·康德(Immanuel Kant)著名的二律背反(antinomies)所证明的那样,从同一个前提推导出两个完全对立但逻辑严密的结论是可能的[10]。这强调了僵化的逻辑可能具有误导性,人们必须保持重新审视信念的开放心态。在实践中,某人可能在一段时间内持有强烈观点,但后来(通过新的经历或反思)180度反转立场。这种转变不仅是可能的,而且频繁发生,特别是在快节奏的信息时代。
  • 现实世界的改变示例: 任何谈过恋爱的人都知道,一段由愉快、志同道合的认同组成,没有任何冲突或挑战的关系,往往是肤浅且短暂的。一段双方从未遇到不同观点或偶尔的困难的关系不会留下持久的印象——双方对彼此而言依然像“陌生人”,关系很快就会消散。这说明了一个更广泛的观点:我们通过遇到差异而非一致性来成长。人们通常会主动寻求挑战和新视角来丰富理解(即使有时会感到不适)。因此,那种认为“除非算法干预,否则一个人会永远喜欢同一件事”的观点是一个稻草人谬误。人类完全有能力自行转移注意力和品味。

综上所述,“如果没有外部输入,人们永远不会改变他们的观点或偏好”这一观点是错误的。人类不是被困在当前喜好之茧中的被动毛毛虫——我们本质上是好奇、适应性强且偶尔自我矛盾的生物。我们经常因厌倦或成长而打破自己的茧房。任何假设用户零内生变化的各种信息行为理论都是过于简化的。正如一位媒体学者所言,我们真正需要打破的不是算法的“信息茧房”,而是我们自己的**“认知茧房”**——由于内在偏好而固守舒适想法的倾向[11]。换句话说,人类的大脑,而非技术,往往才是真正的过滤器。但在指责用户之前,让我们审视第二个假设:技术正在积极地将我们关在气泡里。

算法真正的运作方式:多样性设计,而非“白痴式”的狭窄

过滤气泡叙事的第二个支柱是相信内容推荐算法只向你展示更多相同的内容——如果你喜欢 X,系统就会不停地喂给你 X(或 X 的相似物),永不让你接触 Y 或 Z。这种假设将算法想象得极度字面化且短视:只是将你过去的行为反馈给你,没有任何变化。如果那是真的,它确实会创造一个同质化内容的窄化漏斗。然而,现实世界的推荐算法远比这复杂,并且具有强大的动力去避免创造单调的体验

事实上,各大平台很早就意识到了“只展示相似内容”方法的危险——这并非出于某种利他主义原因,而是因为这对生意不利。如果推送变得过于可预测或单一,用户会感到厌烦或恼火并离开。一个**“白痴般”简单且将用户标签化的算法会迅速失去这些用户(从而宣告失败)[12]。为了长期留住用户,算法必须偶尔用新的兴趣点来给用户带来惊喜**,打破单调。因此,现代推荐系统主动融入了探索和多样性。请看以下几点:

  • “兴趣探索”机制: TikTok、YouTube 和抖音等平台明确设计了算法来引入多样性。正如一篇中文技术文章所揭示的,“短视频平台有一种特殊的‘兴趣探索’机制:在每一轮推荐中,系统会刻意包含一部分用户极少观看的类别的内容,并注入一些随机内容,以确保用户的内容视野保持多样化”[13]。换句话说,算法本身就在试图打破任何萌芽中的茧房。同一篇文章直言不讳地指出,“算法的逻辑显然没有那么白痴”——它知道无休止地给你一种类型的内容会是一个错误[12]。相反,它在相关性与新颖性之间取得了平衡。TikTok 的官方文档证实了这一方法:其目标是在建议你可能喜欢的内容与允许你发现新的、多样化的内容和视角之间寻找平衡[14]。这就是为什么当你刷“为你推荐”(For You)页面时,偶尔会看到与你过去喜好没有明显关联的视频——系统正在测试并拓宽你的兴趣[15]。TikTok 甚至向用户保证,它**“会鼓励你探索不同的类别”,而不仅仅**是展示你已经看过的内容[16]。这种内置的多样性并非偶然,而是经过设计的。
  • 算法拓展你的兴趣: 一个经过良好调优的推荐算法致力于**“帮助用户品尝新鲜内容”拓展其兴趣边界**,因为这是让用户保持兴奋并长期留存的方法[17]。正如一份报告指出的,“平台只有通过不断给用户带来他们甚至不知道自己会感兴趣的新内容,才能确保长期使用”。推送新颖话题、探索用户的潜在兴趣以及增加内容多样性以提高用户留存率,一直以来都是**“推荐算法的一个重要目标”**[17]。事实上,清华大学的一项研究发现,从中长期来看,个性化推荐并不必然导致信息茧房;它实际上可能为个人提供一个更加多样化和理性的信息世界[18]。这与个性化推送可以以定制化的方式让你接触不同事物的想法是一致的,而相比之下,你自己手动坚持阅读一份报纸或看一个频道则可能更为封闭。
  • 探索-利用平衡(Explore–Exploit Balance): 在广告领域,算法字面上拥有**“探索”模式(寻找当前利基市场之外的新受众)和“利用”模式(最大化已知偏好)。例如,Meta(Facebook/Instagram)的广告投递算法运行在一个探索-利用循环上:它会花费一部分预算向尚未转化的人展示内容**,以便“走出去寻找新人”(即使他们不会立即感兴趣),一旦它了解到谁可能会上钩,它就会转向利用模式,重点针对那些可能的转化者[19]。在饱和该人群后,它会再次下沉并重新探索[20]。这种循环式的触达扩大对于避免停滞是必要的。核心结论是,算法并非纯粹地收窄——它们不断地在当前气泡之外试水
  • 社交媒体推送增加了多样性: 实证研究已经戳穿了算法推送严格限制意识形态接触的说法。矛盾的是,研究表明,社交媒体用户通常比非用户接触到更多元化的观点。牛津大学路透社研究所(Reuters Institute)回顾了相关文献并得出结论:“如果过滤气泡假设是真的,社交媒体上的人看到的新闻应该比不上社交媒体的人多元。但研究发现情况并非如此——推送页面并不像担心的那样厌恶对立观点”[21]。相反,像 Twitter 这样的平台自然地混合了对话(例如共同的标签将对立阵营带入同一个帖子),甚至 Facebook 的好友网络也极少是如此同质化的,以至于你永远看不到一篇持不同政见的文章[22]。元分析中引用的一项研究发现,社交媒体用户“比非用户接触到更多样化的新闻来源”[23]。当你考虑一个典型的 Facebook 动态时,这就不难理解了:是的,它部分受你的喜好影响,但你仍然会看到你朋友分享的内容,而大多数人至少有一些倾向不同的朋友或关注页面。相比之下,那些在线下只读一份党派报纸的人,其媒体摄入的多样性可能实际上低于一个无意中看到多个来源的社交媒体用户。因此,“回声室”效应并非假设的那样普遍——绝非所有社交媒体用户都生活在密闭的认同气泡中。事实上,研究人员估计只有个位数百分比的用户(可能是那些刻意去构建单方推送的人)真正生活在意识形态纯正的回声室中[24]。绝大多数人至少接触到一些相反的信息。
  • 算法作为破茧者: 还有一个经常被忽视的讽刺:算法可以帮助打破传统的茧房。在个性化推送出现之前,人们的信息来源很大程度上是自我选择的(你选择某个电视频道或订阅符合你口味的某些杂志——中国学者称之为**“信息偏食”[25])。你很少会消费你已知自己不喜欢的美。但一个设计良好的算法可能会偶尔插入一段来自你通常领域之外的内容——这是你自己可能永远不会去寻找的东西。例如,一个通常阅读体育新闻的用户可能会突然在推送中发现一段科学视频,从而发现对天文学的新兴趣。从这个意义上说,个性化算法推送比你自己刻意的选择能更多样化地丰富你的输入。一篇中文评论指出,“信息茧房”观点最大的谬论在于它假设了一个实验室般纯净、在现实中并不存在的信息环境:“每一个现实中的人都生活在远比这更碎片、更复杂的信息环境中——线上我们有无数新闻、视频、平台;线下我们有工作、生活、社交互动在更新我们的认知。现实是非常复杂的,而人们可获得的内容远比想象中丰盛,因此茧房很难真正织就。”[26]。换句话说,完美过滤气泡的前提条件在实践中从未得到满足;生活总会渗透进来。该评论总结道,“茧房很难织就”**——考虑到现代生活中信息来源的复杂性,很难在一个人周围织成一个真正的茧房[27]。

所有这些证据都削弱了“算法只展示你已经喜欢的内容”这种简单化的观点。相反,平台已经认识到用户参与度取决于关联性以及新颖性和多样性。是的,算法会给你它认为你会喜欢的内容——但喜欢不是一个静态的目标;它的部分工作就是扩大你会喜欢的内容范围。在某种意义上,一个好的推荐系统试图预测的不只是你现在享受的内容,还包括如果你接触到就会享受的内容。正如一位字节跳动(TikTok/抖音)工程师曾描述的,推荐系统的真正目的不是单纯的个性化,而是**“去中心化”——将每一件内容与会欣赏它的受众细分连接起来[28]。在这样做的时候,它往往最终拓宽**了用户的视野,将他们与原本不会遇到的信息连接起来。

需要明确的是,这并不意味着算法是完美的,或者它们从不强化偏见(它们当然可以,特别是如果用户主动与某一方互动)。重点在于,这些系统的设计并非无知的管窥之见。它们知道“只有正面、从不挑战”的内容会导致用户疲劳(就像一段只有甜腻、没有深度的关系不会留下持久影响一样)。因此,无论从人性角度还是商业角度来看,“茧房”都是不可持续的。那些尝试纯粹气泡化方法的平台会看到用户流失。事实上,各大平台的繁荣表明它们正在给人们提供熟悉感与惊喜感的满意组合。

广泛存在的“过滤气泡”缺乏可靠证据

鉴于上述情况,实证研究在现实世界中很难找到令人担忧的信息茧房证据也就不足为奇了。“过滤气泡”最初是一个假设隐喻,而非一个被证实的现象。2006 年在其著作《信息乌托邦》(Infotopia)中创造了**“信息茧房”一词的美国法律学者卡斯·桑斯坦(Cass Sunstein),将其定位为一种担忧**——本质上是一个关于“如果人们只选择合意的信息会发生什么”的思想实验[29]。伊莱·帕里泽(Eli Pariser)2011 年的著作《过滤气泡》(The Filter Bubble)同样根据有关 Google 和 Facebook 个性化的轶事敲响了警钟。这些著作在当时提出了有效的担忧,但两者都没有证明社会已经陷入了这个陷阱——它们是警告,而非事实报告。快进到今天,我们发现了什么?

  • “它从未被证实存在过。” 一个引人注目的观察是,在西方学术文献中,多年来关于“信息茧房”的实证研究相对较少。截至 2020 年初,Web of Science 数据库中标题包含“information cocoon”的论文仅有 1 篇[30]。相比之下,中国研究人员到那时已在 CNKI(知网)上发表了 584 篇关于“信息茧房”的论文[31]。这种东西方的差异暗示,西方学者并未觉得这个概念像中国学者认为的那样具体或紧迫——或许是因为许多人意识到这只是一个未经证实的隐喻[32]。另一方面,中国学术界和媒体热衷于这个概念,通常将其视为一个已经证实的、与算法紧密相连的问题[33]。然而,中国专家也指出了证据的缺乏:清华大学新闻学教授陈昌丰强调,桑斯坦的“信息茧房”只是一个隐喻,是在特定的政治背景下提出的,且**“它在现实中从未被证明存在过”[34][35]。同样,北京师范大学的喻国明教授指出,这个术语被过度泛化并滥用到太多领域,导致了误解[36]。简而言之,一些学者直接从假设跳到了谴责,将茧房视为一种已确立的**威胁,而没有停下来通过实证展示它[37]。
  • 多国研究发现“没有”过滤气泡效应: 近年来开展了更多严谨的研究,其结果很大程度上戳穿了对过滤气泡的恐惧。从美国到西班牙,从荷兰到其他欧洲国家,研究一致发现,几乎没有证据表明算法个性化正将人们隔离在回声室中[7]。阿姆斯特丹大学的六位学者审查了数据并得出结论:“目前几乎没有任何实证证据支持对信息茧房的担忧。”[7] 这呼应了多项独立研究的结果。例如,2018 年发表在《信息、传播与社会》(Information, Communication & Society)杂志上的一篇论文明确指出:“总的来说,对‘信息茧房’的担忧被夸大了。”[38] 该论文认为,这一概念假设了一个不切实际的场景,即一个人的信息环境完全受个性化控制,而现实中的人们在其信息摄入中拥有多个来源和维度(如前所述)[27]。
  • 元分析与综述: 2022 年由路透社研究所和牛津大学发布的一份综合元分析研究了一系列关于回声室和过滤气泡的研究。它得出了相同的结论:效应并不像流行语境中假设的那样普遍或强大[39]。根据该综述,虽然孤立的回声室确实存在,但它们**“远不像大多数人相信的那样普遍”[39]。大多数用户在线上并非生活在政治或意识形态的气泡中。阿克塞尔·布伦斯(Axel Bruns)这位写了一整本书来审查证据(《过滤气泡是真的吗?》)的澳大利亚教授得出的结论是:“大多数关于回声室和过滤气泡及其对社会的负面影响的断言都被显著夸大了……最终它们是神话。”[40]。布伦斯指出,即使是我们预期可能处于气泡中的人(例如政治边缘的极端分子),通常确实**会接触主流媒体——哪怕只是为了批评它[41]。现实生活中的媒体消费比完美自我隔离理论所暗示的要混杂得多。
  • 人们会看到反对观点(即使他们不喜欢): 如前所述,研究发现重度党派人士实际上也会接触到大量主流内容[42]。2011 年的一项研究发现,最倾向党派的新闻消费者比其他人更有可能访问《纽约时报》等主流媒体,这表明了交叉接触[43]。2013 年的另一项研究得出结论:“接触高度党派化的政治信息并不会以牺牲与其他观点的接触为代价。”[44]。而在瑞典、西班牙、荷兰等国的国际研究也同样未能发现受众的完全隔离[45]。现实情况似乎是,虽然人们可能偏爱某些渠道,但他们并非生活在真空中心——而且那些消费边缘或单方面内容的人通常也会消费多种内容。受众之间的重叠部分远比茧房叙事所想象的孤岛要大。

总结研究结论:数据很难支持那个“世界分裂为无数密封信息气泡”的末日场景。是的,极化和确认偏误(confirmation bias)是真正的担忧,但它们并非完全、甚至主要由算法个性化引起。人类的意识形态分裂远在社交媒体出现之前就已经存在(想想历史上具有党派倾向的报纸,或者只收看某一个电视新闻频道的家庭)。“信息茧房”这一隐喻抓住了人类选择性接触这一合理担忧,并将其完全归咎于技术,这是一种过度简化。正如陈昌丰所指出的,桑斯坦的警告植根于特定的西方政治背景(2000 年代初期对党派媒体和互联网的担忧)[37]。将这一概念原封不动地移植到当今算法驱动的平台上——且在没有证明的情况下——导致了某些圈子里的某种道德恐慌。将**“为什么人们不同意我的观点”归咎于“算法”**变得很流行,而事实上人们在某种程度上一直倾向于亲近合意的信息。现实远比一个整齐的茧房要凌乱得多。 人们的媒体摄入是多维度的,而算法只是众多影响因素之一(而且正如我们所见,有时它还是增强多样性的因素)。

“茧房”的宣传陷阱及如何保持清醒

如果“信息茧房”在很大程度上是未经证实的,为什么这种叙事如此盛行?这里我们触及了一个关键的洞察:这种叙事本身已被武器化,用于某些政治和营销议程。关于“不要生活在气泡中,听取另一方声音”的持续修辞已被用作一种先发制人的意识形态编程。换句话说,通过植入你正处于回声室的恐惧,某些行动者希望打破你对当前信息来源的信任,让你乐于接受“他们的”信息。这几乎是一种心理诡计:首先说服某人,让他们相信自己的世界观受人为限制(一个气泡),然后将你自己的宣传呈现为他们需要引入的“新鲜空气”。这是一种狡猾的说服形式——它利用了我们不想成为一个狭隘者的愿望。

事实上,我们可以观察到“信息茧房”这个词被抛出的方式是如何服务于言说者的利益的。例如,一个专家或自诩的权威可能会说:“哦,你相信 X 只是因为你被困在信息茧房里。你需要听听我的说法。”这种框架立即让听众处于防守状态——没人想认为自己是一个闭目塞听的木偶,所以他们变得愿意消费新内容,只是为了证明自己是“开放”的。广告商和“思想领袖”利用了这一点。在中国,如一篇文章所指出的,一整群贴着**“提升思维”“人性智慧”“自我提升”标签的在线大 V 捕捉到了人们对身处信息茧房的恐惧[46]。他们兜售碎片化的“知识”帖,敦促人们打破所谓的气泡。但正如那篇文章警告的,如果你被这类内容迷住,“除了增加你的焦虑外,它不会给你的生活提供答案”**[47]。那只是一些口号式的“鸡汤”——碎片化的鸡汤——这最终本身就是一种单方面的食粮。换句话说,对茧房的恐惧变成了一个营销钩子:你最终陷入了另一个由励志陈词滥调或偏见叙事组成的气泡中,却以为自己在学习新东西。

此外还有政治维度。将“过滤气泡”作为对极端政治崛起、虚假信息传播等现象的解释变得很流行。将这些问题归咎于技术当然很省事——“人们相信疯狂的事情是因为 Facebook 把他们关进了气泡里”。然而,一些分析家认为这分散了对深层问题的注意力。阿克塞尔·布伦斯指出,归咎于回声室**“让我们无法更清楚地看到,真正的问题在于人类不愿与对立群体接触以建立理解——这是一个太过于‘人性’的问题”[48]。同样,腾讯那篇文章敏锐地观察到:“当网暴和‘信息茧房’的讨论挂钩时,算法就成了万能的替罪羊——因为如果你把责任推给技术,技术是不会回嘴的。”[49]。这揭示了一个讽刺但可能的理由,即为什么这种叙事长盛不衰:将极化或偏见归咎于算法很方便,因为算法无法自辩。与此同时,政治家和媒体从业者避免了面对自己的角色(例如助长极化的党派框架、社会经济因素、教育缺失等)。“茧房”**隐喻之所以经久不衰,是因为它提供了一个简单的罪魁祸首——一个免除了个人和机构责任的罪魁祸首。说“互联网对我们做了这些”比解决社会分裂复杂的深层人性原因要容易得多。

那么,在这种环境下我们该如何自我防护呢?作者提出了一个相当具有挑战性的策略:无情地精简自己的媒体摄入——本质上是建立自己的白名单。具体来说,“如果你在 10 秒钟内不喜欢某个观点,就屏蔽该来源。” 乍看之下,这听起来正是“信息茧房”警告告诉我们不要做的事情!难道屏蔽所有你不喜欢的东西不正是建立你自己的回声室吗?作者的论点很微妙:如果你真的相信人类(包括内容创作者)会随着时间的推移而改变,那么现在屏蔽一个来源并不意味着你永远不会接触到新思想。为什么?因为你所关注的人本身最终也会改变或接触到那些新思想,当他们分享这些思想时,你会间接地接触到。简而言之,你完全可以不去做某个花哨新叙事的“首波”消费者(那可能只是宣传或炒作)。相反,让其他人先去处理它。如果那个“其他观点”有任何有效性或生命力,它迟早会通过你信任的人以更经消化后的形式浮现。与此同时,你避免了成为**“洗脑运动初始目标”的风险。这种方法本质上是延迟开放**:你并非拒绝考虑替代观点,你只是过滤掉了每一个随机争议性的噱头,只有当思想证明了其价值或获得了广泛关注时才予以考虑。

这其中有一定的逻辑。可以将其视为众包过滤:你让大众(或你信任其判断的特定人群)去粗取精。你没必要为了所谓的“开放心态”而让自己的大脑遭受每一条可疑的点击诱饵。用有限的精力去亲自过滤所有传入的信息是非常累人的;将部分过滤工作委托给可靠的中介(朋友、信誉良好的策展人等)是可以的。通过积极屏蔽那些不断散布你认为的宣传或恶意内容来源,你保持了心智的健康与完整。而且因为真理往往长期获胜,任何真正重要的反对观点最终都会通过你未屏蔽的渠道到达你面前。到那时——可能是几天或几个月后——你可以用更冷静、更具语境的视角来审视它,而不是把它当作原始的病毒式诱饵。

一个刻意精简内容的例子是创建替代性社交网络,作为对抗主流叙事的“围墙花园”。一个著名的案例是美国前总统唐纳德·特朗普的平台 Truth Social。它被明确设定为特朗普支持者的环境,摆脱了 Twitter/Facebook 的内容政策和被认为的自由派偏见。从本质上讲,这是一个白名单式的回声环境——只有特定的内容和声音存在。支持者认为这允许在该社区内进行更“理性”的讨论,因为他们不必经常应对反对者的交火或担心外部宣传。当然,批评者称其为教科书式的回声室。哪一方是对的?这取决于你的视角:在一个同质化的社区内,讨论确实可以专注于细节和解决方案,而不会演变成基本的价值观争斗(因为基准价值观是共享的)。另一方面,这样的社区在缺乏反对观点调节的情况下,也可能强化自身的极端性。关键在于,并非所有的“气泡”都是完全密不透风的——例如 Truth Social 上的许多人仍然能看到 Twitter 或新闻上的言论;他们意识到外部意见,但选择主要与自己的群体互动。这到底是好是坏是一个更长的话题,但它表明精简个人的信息环境是一些人有意识采用的策略。

最终,目标不是盲目地从一个影响摆向另一个影响,也不是完全孤立自己。而是找到一个健康的中间地带:你在长时间尺度上保持开放心态,但又不过于开放以至于大脑“掉出来”或被宣传浸透。正如中国古话所云,“兼听则明,偏信则暗”。这里的转折点在于,你不需要在每一刻都兼听双方。你可以给自己时间空间来处理信息。你可以选择在什么时候、通过去接触具有挑战性的观点。那不是心态封闭,而是战略性的心态开放

与此同时,对那些不断尖叫“你在气泡里!”的人保持一份怀疑是明智的。他们中的许多人都有东西要推销——无论是产品、意识形态,还是他们自己的重要性。正如我们所见,“信息茧房”的叙事本身已被收编为一种宣传工具。防范这一点意味着要识别出什么时候“你只是在气泡里”的指控被用来进行操纵。与其因为有人指责你处于回声室就自动怀疑自己当前的所有信念,不如评估指控者的动机和证据。你是真的信息匮乏,还是他们只是想让你采纳他们的偏见?

结论:戳破气泡神话

用户绝非算法隔离下无助的受害者,用户拥有能动性和天生的好奇心,而算法已经演变为迎合我们寻求多样性的天性。“信息茧房”在很大程度上是一个误导性的叙事——一个由于焦虑,有时甚至是由于精心设计而被放大的神话。它提出的问题,根据现有的最佳证据,远没有假设的那么严重,在某些情况下很大程度上是虚构的[7][40]。这并不意味着我们应该对媒体素养或偏见掉以轻心;它意味着我们应该打正确的仗。真正的问题——认知偏误、政治极化、虚假信息——需要通过更好的批判性思维教育、多样化且高质量的媒体摄入以及算法运作的透明度来解决。将这些复杂问题归咎于一个虚构的完美气泡是徒劳的。

所以,下次当你听到“打破你的回声室!”时,请持保留态度。是的,努力去理解不同于你自己的视角——但要在你自己的主导下去做,而不是出于担心自己是个性化囚徒的恐慌。过滤气泡恐慌的讽刺之处在于,它本身已变成了一个被用来将人们推向各种方向的“梗”。通过认识到我们不是数字牢笼里的卡通人物,我们既可以沉溺于个人品味,又可以保持对更广阔世界的认知。算法会继续给你展示猫片,同时偷偷塞进偶尔的新话题;你的朋友圈会发布熟悉的梗,同时也会偶尔出现对立的文章。拥抱这种混合。最终,人类的好奇心往往会刺破任何过于狭窄的气泡。信息茧房的神话低估了技术的复杂性,更重要的是,它低估了人类成长的能力

资源来源:

  1. Sunstein, Cass R. Infotopia: How Many Minds Produce Knowledge. Oxford University Press, 2006. (信息茧房概念起源)
  2. Pariser, Eli. The Filter Bubble: How the New Personalized Web Is Changing What We Read and How We Think. Penguin Books, 2011.
  3. 陈昌丰. 对数字时代信息茧房的评论. 清华大学 (访谈)[35][26].
  4. Bruns, Axel. Are Filter Bubbles Real? (Polity Press, 2019) – 结论认为过滤气泡在很大程度上是神话[6].
  5. 路透社研究所 & 牛津大学 – Echo Chambers, Filter Bubbles, and Polarisation: Literature Review, 2022 [50][23].
  6. 阿姆斯特丹大学研究 (通过腾讯新闻报道) – 发现几乎没有信息茧房的证据[7].
  7. TikTok 支持中心 – How TikTok Recommends Content (访问于 2025)[14].
  8. TikTok 算法分析 – 关于注入新颖性以防止单调的说明[51].
  9. “信息茧房,一个为焦虑而生的谬误” – 梁相, 真故研究室 (Zhengu Lab) 文章, 2024[52][7][13][17].
  10. 消费者行为中的多样性寻求 – Frontiers in Psychology (Zhang, 2022)[8].
  11. RDI – “Echo Chambers Are a Myth” (2022年11月10日)[21][42].
  12. 腾讯新闻关于算法避免同质化的评论[13][17].
  13. 诺贝尔和平中心 – Filter Bubbles (2024年8月15日),讨论人类思维与算法在创建气泡中的作用[53][54].
  14. Northbeam 博客 – Explore–Exploit Cycle of Meta’s Algorithm (2025年9月18日)[19].
  15. Axel Bruns (Medium 专栏) – 过滤气泡概念是过分夸大的轶事[6].
  16. 虎嗅网分析 – “信息茧房”只是一种担忧, 并未被证实存在 [55].
  17. 陈昌丰与喻国明关于术语滥用的观点[34].
  18. 真故研究室 (通过腾讯) – 算法添加随机内容以确保多样性[13](算法逻辑“没那么蠢”).
  19. Information, Communication & Society 2018 – 回声室担忧被夸大[56].
  20. 清华大学报告《破茧还是筑茧?》 – 个性化推荐可以增加信息多样性[18].
  21. 梁相 (真故研究室) – 即使没有算法,人类天生也会避开讨厌的内容 (信息偏食)[57].
    (以及文中引用的其他参考资料。)

[引文索引对照链接]
[1] [6] [40] [41] [48] 布伦斯:过滤气泡是真的吗?
[2] [21] [22] [23] [24] [39] [42] [43] [44] [45] [50] RDI:回声室是个神话
[3] [4] [32] [37] [46] [47] [55] 虎嗅网:信息茧房,一个为焦虑而生的谬误
[5] 维基共享资源:FilterBubble.svg
[7] [11] [12] [13] [17] [18] [25] [26] [27] [28] [29] [30] [31] [33] [34] [35] [36] [38] [49] [52] [56] [57] 腾讯新闻:信息茧房,一个为焦虑而生的谬误
[8] [9] PMC:消费中的多样性寻求行为文献综述
[10] 维基百科:康德的二律背反
[14] [15] [16] TikTok 支持中心:推荐逻辑
[19] [20] Northbeam:Meta 算法的探索-利用循环
[51] TikTok 算法 2026:FYP 如何运作
[53] [54] 诺贝尔和平中心:过滤气泡专题