本文发布于 2026-04-14 16:24在信息唾手可得的数字时代,人们时常会遇到这样的情况:刷短视频时,只要点开几条美食教程,首页便充斥烹饪技巧、探店测评;浏览资讯时,关注过几次职场话题,推送便始终聚焦求职、加班、职场内卷;在社交平台发表观点后,也总能刷到与自身立场高度一致的评论,鲜少看到不同声音。

这种被精准投喂、视野逐渐收窄的状态,正是美国学者桑斯坦提出的“信息茧房”——个体在信息选择中被同质化内容桎梏,如同作茧自缚,困在单一的认知世界里。如今,个性化推荐算法已深度嵌入网络生活的各个角落,其以迎合偏好为核心、以维持用户黏性为目标的运行逻辑,在带来便利的同时,也让越来越多的人被“信息茧房”牢牢包裹。近日多位接受本报记者采访的学者认为,规范算法运行、打破信息壁垒、守护信息多元性,已成为数字治理领域亟待破解的重要课题。
被计算出的信息茧房
随着AI技术向传媒、社交、生活服务等多领域纵深推进,算法推荐机制持续迭代升级,信息茧房也在技术赋能下呈现出全新样态,与传统意义上用户主动选择的信息窄化有本质区别。南京师范大学新闻与传播学院教授高山冰将算法时代的信息茧房特征归纳为三点。一是隐蔽性与强制性。传统信息窄化多源于用户主动筛选,而算法在后台无声运行、自动过滤,用户在无意识中就被限制了信息接收范围,毫无察觉地陷入单一内容圈层。二是规模化与系统性。传统信息窄化是个体独立行为,影响范围有限,而当下平台通过技术架构系统性塑造公共信息环境,让信息茧房从个体问题演变为社会现象,影响面覆盖数亿网民。三是商业逻辑深度驱动。平台以追求用户停留时长、流量变现为核心目标,使信息窄化从偶然的个体选择,转变为平台刻意设计的商业产物。
不同传播场景下,信息茧房的表现形式也存在明显差异,其核心根源是信息分发机制的彻底转变。暨南大学新闻与传播学院副教授师文以日常网络使用场景举例,比如在微信朋友圈、QQ空间等社交平台,信息分发基于“人脉关系”,好友互动越频繁、关系越亲密,内容传播速度越快,属于“以人为核心”的分发模式;而在抖音、快手、今日头条等算法主导平台,信息分发完全依赖用户行为数据,系统会根据点击量、完播率、点赞数等指标,判断内容是否“值得推送”,用户刷到的往往不是熟人分享,而是平台判定“你可能感兴趣”的内容。
“信息茧房的危害,远不止‘看到的内容变少了’这么简单。”师文结合用户使用习惯分析认为,平台根据用户历史行为持续推送相似内容,用户在反复接收中不断强化自身偏好,形成“点击—推送—再点击”的稳定回路。长此以往,用户会逐渐依赖“被投喂想看的内容”,而主动思考、对比辨析、修正认知的能力不断弱化。
这种危害在现实中随处可见。有用户长期刷到单一立场的社会新闻,便深信这就是事件全貌,直接排斥其他不同解读;有网友沉迷娱乐八卦推送,逐渐失去关注公共议题、深度话题的耐心;还有人因算法持续推送焦虑类内容,导致自己的情绪受到严重影响,陷入非理性判断状态。师文表示,如果长期被困在信息茧房里,人们的认知视野会不断被收窄,思考方式趋于单一和僵化,价值判断走向绝对化,最终习惯在封闭环境里片面地理解世界。
成因交织的茧房闭环
信息茧房的形成并非单一因素作用的结果,而是算法技术、平台商业逻辑、用户认知习惯、社会传播结构多方面交织形成的闭环产物。
华中科技大学新闻与信息传播学院教授徐涵认为,商业利益驱动是算法催生信息茧房的核心推手。当前多数平台以点击量、用户时长、广告收益为核心考核目标,算法自然优先推送用户偏好的同质化内容,通过不断强化兴趣标签最大化流量价值,这也是信息茧房呈现规模化、普及化的关键原因。除此之外,多重因素共同加固了信息茧房,比如算法本身存在技术局限,协同过滤机制会形成自我强化的推荐闭环,小众、多元、深度的优质内容难以获得曝光机会;用户存在认知惰性,本能地接纳契合自身立场的信息,主动排斥异质观点;社会传播结构失衡,大量媒介资源集中在少数头部平台,进一步固化信息边界,让多元声音更难传递。
高山冰则将信息茧房的形成机制比作一个闭环驱动的动态结构。算法技术是底层基础设施,协同过滤、个性化分发等机制,决定了信息“如何分发给用户”。平台逻辑是价值导向,以流量最大化、商业盈利为核心,设定算法的优化目标,决定“哪些内容能被分发”。而用户偏好是反馈数据,既被算法捕捉、放大,又在持续使用中被算法反向塑造——用户越点击某类内容,就越容易刷到同类信息,进而不断强化原有偏好,形成难以挣脱的闭环。
高山冰认为,落到用户个体身上,这一闭环会引发三种典型问题。一是信息获取窄化。异质信息在算法作用下被屏蔽,用户在无意识中丧失信息选择权,再也难以看到对立、多元的观点。二是认知层面固化。算法持续强化用户既有偏好,用户对不同声音的容忍度持续降低,陷入观念固化、认知失调的状态。三是群体极化加剧。用户被困在高度同质的圈层中,内部观点不断回声放大,容易将局部信息误判为整体全貌,对外部群体、陌生事物形成刻板印象。比如部分网络圈层因长期接收单一信息,出现极端立场对立,甚至引发网络骂战,正是群体极化的直观体现。
茧房破局需精准施策
算法、平台与用户的三方合力,使信息茧房成为数字时代的治理难题。尽管信息茧房概念在学界存在一定争议,但规范算法推荐、保障信息多元,已成为行业共识与治理核心。中国人民大学新闻学院副教授董晨宇聚焦算法本身,认为必须推进算法透明化,正视算法带来的现实问题,而不是局限在学术概念的争论中。“真正需要关注的是算法不透明所导致的社会信任问题以及由此带来的治理难度,而非纠结于‘信息茧房’这一概念。”董晨宇说。
高山冰认为,打破信息茧房的根本路径,是通过外部监管与平台自律,推动算法目标从单纯追求商业利益转向兼顾公共价值,从源头削弱茧房的生成机制。他建议重点抓好四个环节:督促平台向监管部门公示算法推荐原理与机制,规避算法“黑箱操作”,让算法运行看得见、可监督;强制平台提供一键关闭个性化推荐、自主修改兴趣标签等便捷功能,把信息选择权还给用户;要求平台执行去同质化策略,通过算法优化保障小众、深度、多元信息获得合理曝光机会;完善法律法规体系,强化立法与执法力度,让算法监管有法可依、执法必严。同时,建议推行差异化精准监管,完善用户反馈渠道,搭建专门的算法监测平台,动态监控内容同质化、信息窄化等指标,提升监管的针对性与有效性。
徐涵提出更具体的监管思路,即政府规范算法的核心,是用法规约束算法逐利性、用技术拆解算法黑箱、用权利制衡平台权力。
从国家顶层设计来看,算法推荐规范已进入制度化推进阶段。2021年11月,《中华人民共和国个人信息保护法》正式实施,从法律层面对自动化决策算法作出专门规范;2022年3月,国家网信办等四部门颁布《互联网信息服务算法推荐管理规定》,明确保障用户的算法知情权与选择权;2025年7月,《移动互联网应用服务用户权益保护合规管理指南》发布,进一步指导企业公示算法信息、提供关闭个性化推荐选项……一系列政策落地表明,无论信息茧房在学术层面存在何种争议,以算法透明、用户赋权、平台问责为核心的治理路径已然清晰。
学者们表示,虽然算法规范有法可依,但如何确保有法必依、执法必严、违法必究,仍然是一个亟待解决的问题。有效解决这一问题,有待监管持续深化、平台主动自律、用户理性提升,如此才能实现数字时代的信息生态更加多元开放,使人们逐步摆脱信息茧房的束缚,看见更完整、更真实的世界。
观媒原创内容,未经授权不得转载、链接、转贴或以其他方式使用。本站其他转载内容,版权归原作者及出处所有。如有侵权,请联系我们进行删除。文章内容为作者个人观点,不代表观媒赞同其观点和对其真实性负责。本站只提供参考,不构成任何实际建议。