长期以来,社交媒体带来的新挑战已引发广泛关注。哈佛大学法学院的凯斯·桑斯坦教授提出的“信息茧房”概念在中文世界广泛传播。所谓“信息茧房”,即个体在社交媒体上仅接触单一类型信息,导致对世界的认知受限于狭窄范围。随着个性化推荐算法在社交平台和短视频应用中的普及,这种自我封闭的担忧日益加剧。尽管表述可能不够严谨,但“同温层”、“过滤气泡”、“傻子共振”等术语常被使用,许多人认为算法推荐加剧了传播生态恶化,促使个体走向封闭,并使极端观点在社交场域中获得更多关注。
如今,社交媒体已深度融入日常生活。面对现实世界的信息爆炸,个体对信息进行过滤和整理似乎成为必然。为应对社交媒体挑战,算法工程师们提出了多种平台层面的干预策略。随着推荐算法不断完善,推送到人们面前的信息正变得更加平衡和丰富。然而,人们对个性化推荐引发的“信息茧房”或“同温层效应”仍感忧虑。例如,某些社交平台会根据用户政治倾向推荐同质化内容,导致用户只能接触片面信息来源,从而对良性公共对话产生负面影响。
保持警醒的生活态度固然可贵,但信息茧房在现实中的具体面貌仍缺乏清晰研究。我们缺乏信息茧房是否存在的实证证据,也对其如何影响个人信息选择了解不足。事实上,人们选择性接触信息并非新现象。也有学者指出,“同温层效应”确实存在,但当前担忧可能夸大了事实。“信息茧房”这一概念引发广泛焦虑,这是否是一种“叫魂式”的担忧?为更好应对复杂世界,我们需要对这一过程有更深入的研究和理解。
在许多关于信息茧房的讨论中,人们常假设:接触多样化信息就能打破茧房。杜克大学社会学家克里斯·贝尔在《打破社交媒体棱镜》一书中提出疑问:个体在社交媒体上接触对立观点,是否真有助于反思自身?贝尔实验发现,用户日常使用中接触的对立观点并未帮助反思,反而使其政治立场更趋极端。因此,即便信息茧房被打破,社会极化也不会消失。贝尔提出“社交媒体棱镜”概念,认为社交媒体并非如实反映世界的镜子,而是扭曲用户对自我和他人认知的棱镜。这种扭曲会导致错误自我认同和虚假政治极化,从而让用户变得越来越极端。
贝尔书中描述了一类喜欢在网上发泄情绪、博取关注的人。这类人物画像我们都很熟悉,他们的目的不是表达或寻求共识,而是制造混乱。面对这样的人,人们很容易做出情绪化反应。现实中,这种形象同样存在,例如《卡拉马佐夫兄弟》中老卡拉马佐夫在餐厅大闹,内心独白揭示其自卑与对抗心理。不幸的是,无论在网络还是现实,这类闹剧总能获得更多关注。
最近,阿姆斯特丹大学的彼得·滕贝里和迈克·拉罗伊在物理学预印本平台arXiv上发表一篇论文,并获《科学》杂志关注。这篇名为《我们能修复社交媒体吗?利用生成式社会模拟测试亲社会干预》的论文中,他们利用大语言模型生成500个虚拟用户,构成一个小型社交网络。每个用户都基于美国国家选举研究中真实用户画像,被赋予年龄、性别、宗教信仰、政治倾向和教育程度等特征。
在三项独立实验中,研究人员分别使用ChatGPT、Llama和DeepSeek三种主流大语言模型,将虚拟用户扩展为包含兴趣、爱好和职业等细致特征的个人画像,并基于这些画像生成决策。实验过程中,系统随机选取用户,需在三种行为中选择:从10篇随机新闻文章中选择一篇并撰写相关帖子;转发已有帖子;或依据自身画像关注其他用户。用户的选择会受到其信息流内容影响,该信息流包含10条帖子,其中一半来自已关注用户,另一半来自未关注用户的热门帖子。
在每次实验中,虚拟社交网络均运行了一万个周期。然而,无论使用哪种LLM模型,平台最终都不可避免地出现三种典型负面现象:回音室效应、影响力集中,以及极端声音的放大。
该研究随后以理想化形式测试了六种通常用于缓解社交媒体算法问题的干预策略:
1. 按时间顺序推送或随机推送
2. 淡化主流(高转发量)内容
3. 平衡党派内容的桥接算法
4. 优先发布具有高同理心或高推理能力的帖子
5. 隐藏社交媒体统计数据,例如粉丝数量
6. 隐藏个人简介以减少基于身份的信息传递
然而实验结果令人沮丧。只有部分干预措施对系统起到轻微改善作用,但没有一项能够彻底修复出现极化的系统。事实上,一些干预措施反而加剧了问题。平衡党派内容的桥接算法显著削弱了党派倾向与参与度之间的联系,并略微改善了观点多样性,但同时加剧了社交媒体中的关注度不平等。按时间顺序推送对减少关注度不平等效果最为显著,但同时也存在弊端:它加剧了极端内容的传播。
按时间顺序推送是一种属于Web2.0时代的古早推送策略。人们倾向于认为BBS论坛等按时间排序的网络社区更容易实现注意力平等,减少社群分裂与极化;而采用推荐算法的社区因“回音室效应”容易造成群体间隔,进而加速观点极化。但在这项模拟中,取消推荐算法改用时间排序推送,反而加剧了极端内容的传播。这是一个有些反常识的发现。
接受Ars Technica采访时,彼得·滕贝里提到他作为学者对AI模拟实验的批评与怀疑。但单纯使用观测数据,使研究者很难验证反事实假设。因此,研究者也会创建系统的计算机模型,并在此基础上进行实验验证。计算机模拟在社会行为研究领域有悠久历史,例如罗伯特·艾克斯罗德在《合作的进化》中使用计算机模拟“重复囚徒困境”竞赛,研究合作的产生。这种方法有助于研究网络动力学的结构和发掘社会现象的涌现过程。正如彼得·滕贝里所言:“我仍然要对这些发现持保留态度,意识到这些只是模型,它们捕捉的是一种假设的世界——就像真空中的一头球形奶牛……不幸的是,在这个实验中,我们发现了一种似乎非常稳健的机制。”
在更早之前,《自然》杂志2021年发表的一项研究中,多伦多大学计算机科学系团队以Reddit平台过去14年间共计51亿条评论为样本,分析了用户在1万多个子社区中的发言行为。结果显示,Reddit的社区结构并非仅以“话题”划分,而是深受用户年龄、性别与政治立场等社会因素影响。研究发现,2012至2015年间,Reddit上的政治极化程度相对稳定;但在2016年美国大选期间,平台政治极化水平突然显著上升。值得注意的是,这一变化主要由当年新加入的用户推动,而老用户的立场变化极小。这表明,用户的极化程度与平台使用时长关系不大,更可能受外部政治事件驱动,而非社交平台内部行为的积累所致。
在国际学术界,关于社交媒体与政治极化关系的研究多以政治取向(如左右翼)为衡量维度。然而,多数实证研究表明,社交媒体并不会显著加剧社会的极化现象。换言之,极化更多是现实政治分裂的映射,而非平台算法所制造的“回音室”或“信息茧房”效应。
也许,更接近现实的解释是:社会本身的分裂决定了社交媒体内容的分裂。人们在网络上看到的对立声音,并非由算法催生,而是现实世界分裂在社交媒体世界的真实反映。即便在不存在算法干预的中性环境中,人类依然倾向于靠近与自己观点相似的群体;而面对异见群体时,自我认同的防御性强化反而会使极端立场更加突出。
事实上,我想起《美国的反智传统》作者理查德·霍夫施塔特的论述,他早在上世纪60年代就开始批判他所处时代政治的偏执狂传统。“这是一种持续存在心理情结。” 也许,无论我们用纸媒交流,用电台或是电视交流,还是像现在一样在社交媒体上交流,这样的极化与偏执总是存在的,这是一种我们无法否认、也无法避免的现实。面对历史,也许我们不得不承认,与其怪罪算法,我们更应当意识到作为人类的局限。当然,这也就是说,我们不要放弃去理解这个我们所生活的世界。
参考文献
[1] Larooij, M., & Törnberg, P. (2025). Can We Fix Social Media? Testing Prosocial Interventions using Generative Social Simulation. arXiv preprint arXiv:2508.03385.
[2] Waller, I., & Anderson, A. (2021). Quantifying social organization and political polarization in online platforms. Nature, 600(7888), 264-268.
本文由主机测评网于2026-01-20发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://www.vpshk.cn/20260119086.html