结果发现,算法推荐的新闻比纯随机新闻更具多样性,特别是在仅有算法决定推荐内容时,多样性最高。当用户参与内容选择时,新闻曝光的多样性反而有所降低,说明用户的偏好会进一步强化已有兴趣,减少对多元新闻的接触。
该研究还发现,若用户主动关注更多类型的新闻,新闻曝光的多样性会增加,但若关注范围变化不显著,多样性不会明显提升。同时,只有用户大幅增加对无兴趣内容的互动(如遇到无关新闻有75%概率去点击)时,新闻多样性才会显著提升,这表明单靠用户自身调整行为远远不够打破信息茧房。
“我们认为,算法本身不应该被指责限制了多样性;事实上,它是一种潜在的推动新闻多样性的工具。”文章作者指出,“一个强有力的、促进多样性的算法可以帮助聚焦公众的注意力,通过提供一套统一然而多样性的新闻,防止个体深陷极端信息或误信。”
然而,更早之前,2023年清华大学基于大数据的一项实证分析得出了不同的答案。
实验者从两个大型数据集找到了大量用户被困于“信息茧房”的证据,进而指出信息多样性的丧失与人机交互系统中的两个基本机制密切相关。一是基于相似性的匹配机制;二是对用户反馈的利用,即根据用户的正面和负面反馈来调整后续推荐内容。例如,最初用户可以访问各种主题,如名人、运动、动物等,但随着用户和推荐算法之间交互的增加,他们的访问权限逐渐仅限于其中的几个主题。
另外,暨南大学研究者提到的“多样性”,可能也存在争议。就连作者也表示,“非常值得强调的一点是,算法生产的多样性不一定是真正的多样性”,因为无论其范围和选择如何多样性,都仍然是在平台的控制之下,用户很难逃脱算法垒下的高墙。
面对钟睒睒的责问,抖音副总裁李亮在接受凤凰网采访时回应称,抖音更看重的指标是用户的长期留存,从商业逻辑上看,他们“没有动力去制造所谓的‘茧房’,也最有动力打破‘信息茧房’。”
不过,有一些观点指出,只要平台的盈利主要来自对用户注意力的留存,那么算法带来的所谓的多样性,如果真的存在的话,也很可能只是从单一的情绪化内容变成多样的情绪化内容而已,其结果仍然是认知的极化和撕裂,因为情绪化内容最能延长用户的使用时长。
这就不得不提人类在构建“信息茧房”过程中的主动作用。即使算法完全中立,用户仍会主动选择符合自身偏见的内容。诺贝尔经济学奖得主丹尼尔·卡尼曼(Daniel Kahneman)曾提出,人脑存在两个系统,“系统1”由情感驱动,依赖直觉和本能,追求即时满足;“系统2”主要负责逻辑推理和理性思考。情绪渲染类的内容备受欢迎,因为它们完美迎合了“系统1”。通过15秒短视频、情绪化标题和即时反馈机制,将用户锁定在多巴胺驱动的循环中。也有实验显示,当用户被强制推送对立观点时,反而强化了原有立场。从这个意义上讲,算法作为一个工具,放大了人类认知中有助于形成“信息茧房”的一面。
对于如何破解“信息茧房”,暨南大学和清华大学的两项研究都认为,用户可以通过反向“训练”算法来增加信息的多样性,比如有意识地对算法的选择给与负面反馈并随机探索其他选项。不过,研究人员也指出,这种做法虽然可能有用,但要大幅提升信息的多样性,打破“信息茧房”,仅靠个体自身很难做到。
为此,政府必须加强监管,出台相应的政策和法规。在最近的专项行动中,网信办等要求平台不得推送高质化内容诱导用户沉迷,不得强制要求用户选择兴趣标签,不得超范围收集用户个人信息用于内容推送以及规范设置“不感兴趣”等负反馈功能等。在此之前的2021年和2022年,监管部门先后发布《关于加强互联网信息服务算法综合治理的指导意见》和《互联网信息服务算法推荐管理规定》,为建立健全算法安全监管体系、规范信息服务提供了明确的法律依据和制度保障。当然,除了技术和监管,能否打破“信息茧房”,还要取决于每一个个体的选择。
参考资料: