回顾桑给巴尔:AI如何将社会原子化

发布: (2026年2月5日 GMT+8 03:38)
12 min read
原文: Dev.to

Source: Dev.to

文章插图

前言

嗨。这是我的第一篇文章,所以它可能读起来有点像论文——我更习惯这种格式。如果你有任何问题或想法,请务必在下方评论区留下。这毕竟是一篇讨论帖/文章。

本文旨在探讨 AI(不仅是大语言模型,还有数据分析方面的进步)如何整体上影响人际关系。围绕人工智能的公共讨论往往被几种常见的恐惧所主导:自主性的丧失、大规模监控以及技术中心化控制的可能性。然而,对宏大、末日式 AI 的恐惧掩盖了 AI 对日常人际交往的更直接影响——即原子化和依赖,这两种现象与算法在社交媒体中的使用方式密切相关。

这种系统性视角让我想起《站在赞比亚》(Stand on Zanzibar)中的情形:社会的困境并非来源于单一的专制权力或流氓技术,而是来自众多机构中理性、优化决策的总和。正是这种框架指引我审视现代算法系统的伦理风险。

社交媒体系统中的算法优化

当个性化演变为原子化时,就会出现问题。在原子化的数字环境中,个人越来越多地接触到符合其先前偏好的信息,而对共享叙事或共同参照框架的接触则在减少。随着时间推移,两位用户在相同情境下接触相同信息的概率显著下降。

论文 “Echo Chambers and Algorithmic Bias” 用清晰的语言阐述了社交媒体个性化的影响:

社交媒体算法对内容进行个性化推送,向用户呈现强化其已有信念的信息。这会形成回音室,使用户与多元观点隔离。
Salsa Della Guitara Putri, Eko Priyo Purnomo, Tiara Khairunissa

这种碎片化并不需要意识形态操控或刻意的两极分化。它自然地源于那些将相关性和参与度置于共性之上的系统。其结果不是更多的对立或争论;而是人们根本不再讨论同一主题。

在这样的环境中,社会凝聚力削弱,因为实现集体理解所必需的条件已不再可靠。公共话语变成了一系列平行的对话,每个对话内部连贯,却日益与其他对话脱节。

Source:

超出控制的伦理风险

集体能动性的丧失

算法原子化最显著的伦理风险之一是集体能动性的缓慢侵蚀。当个人通过个性化的信息流体验社会问题时,系统性的问题会变成个人关切。政治、经济乃至社会挑战不再是公众共同面对的现实,而是个人感知的事务。

这也不是单向的系统。许多人可能会把自己的个人事务误认为是整个公众面临的事务,进一步导致个人与集体感知之间的错位。

集体行动依赖于共享的认知——人口不仅要认识到问题的存在,还要认识到它同样存在于他人身上。算法个性化通过碎片化注意力和体验,破坏了这一前提。其结果是,即使技术能力和资源充足,社会也难以协调应对大规模问题。

算法不可见性与排斥

另一个伦理关注点在于那些不符合算法类别的人的处境。社交媒体和人工智能系统通过检测数据中的模式来运作;产生有限互动、行为异常或低价值信号的用户更不可能被优先、放大,甚至被识别。

这产生了一种既非有意也不易观察到的排斥形式。个人和社区可能会变得 算法不可见。与传统的边缘化不同,这种不可见性不会引发抵抗或问责,正因为它缺乏明确的来源和明确的人类控制。

从伦理角度看,这提出了公平性、代表性以及责任的问题——当伤害源于缺乏行动时,系统的责任该如何界定?

系统性伤害的常态化

也许最具挑战性的伦理问题是责任的扩散。算法系统很少由单一主体控制;它们源自企业激励、技术约束、监管环境和用户行为之间的交互。每个组成部分可能在其自身领域内理性且合乎伦理,但整体系统却产生有害的结果。

这映射出 AI 伦理中的更广泛挑战:没有恶意行为者导致的伤害往往是最难解决的。当没有单个决策在孤立情况下显得不道德时,系统性的后果很容易被视为意外的副作用,而非伦理失误。

社交媒体作为原子化案例研究

社交媒体平台清晰地展示了算法优化如何削弱共享社会空间的方式:

  • 新闻推送 优先呈现情感共鸣的内容。
  • 推荐系统 加强基于身份的互动。
  • 排序算法 放大能够最大化互动的内容,无论其对公共话语的贡献如何。

这些机制共同碎片化了信息生态系统,使社会日益难以保持共享的现实感,从而也难以在面对挑战时进行集体行动。

算法原子化与 AI 的未来

算法原子化的问题

社交媒体平台使用算法策展来最大化用户参与度。通过不断挑选可见的、相关的、突出的内容,这些系统塑造了注意力,从而影响用户对现实的感知。伦理问题并非说服本身,而是选择:展示了什么,省略了什么,以及让什么变得不可见。

随着以参与度为驱动的系统规模扩大,愤怒、强化和情感强度在统计上更受青睐,而细微差别、共享语境以及缓慢的共识构建则被降级。由此产生的环境奖励碎片化,而不需要任何明确的分裂意图。

对未来 AI 采纳的影响

人工智能系统在社交媒体之外的广泛应用——教育、就业、医疗和公共服务——可能加剧原子化。AI 驱动的个性化学习平台、适应个人需求的工作分配工具以及算法决策虽然提供了效率和最大化的个人成果;但它们也有可能削弱将社会联系在一起的共享经验。

如果不加以控制,AI 系统可能削弱社会凝聚力——维系信任、协作努力和社区责任感的黏合剂。因此,AI 的伦理考量应包括对社会凝聚力的系统性影响,而不仅仅是准确性、歧视或透明度等问题。许多危害会缓慢显现,体现在对有效社会互动所依赖的共享框架的逐步侵蚀上。

伦理考量与设计启示

应对算法原子化不需要彻底拒绝个性化或 AI 驱动的系统。相反,这要求采用更广泛的伦理度量和设计原则,例如:

  • 基于影响的评估——评估系统对共享语境的影响,而不仅仅是对个人结果的影响。
  • 混合信息空间——设计机制,在保持个性化的同时保留公共信息环境。
  • 透明度——向用户和利益相关者公开优化目标和权衡取舍。
  • 将凝聚力视为设计关注点——把社会凝聚力当作合法的设计目标,而不是外部性。

伦理 AI 设计必须认识到,一些价值——共享理解、集体能动性和社会凝聚力——虽难以量化,却是必须维护的核心。

结论

技术系统很少因为本身是恶意的而失败;更常见的是,它们通过过度优化导致伤害。正如 R. Wang 等人(2023)所指出的:

“智能技术促进了精准且聚焦的广告和营销活动,可能影响用户行为和决策过程。”

当下与未来 AI 面临的伦理挑战有两方面:

  1. 防止对个人的操纵
  2. 解决因物理‑数字关系被打乱而导致的社会现实的隐形碎片化

最大的风险不是机器统治的世界,而是一个各自孤立却又共同存在的世界——个人被优化以获取个人利益,而集体社会结构却持续恶化。

Back to Blog

相关文章

阅读更多 »

Anthropic:“Claude 不会投放广告”……与 OpenAI 走相反路线

Anthropic宣布绝不会在其AI聊天机器人Claude中引入广告。Anthropic在当地时间5日的官方博客上表示:“虽然有很多适合投放广告的好地方,但与Claude的对话并不是其中之一”,并且“我们希望将Claude打造为在工作和深度思考中真正有用的助理,……”。