AI自我偏好在算法招聘中的实证证据与洞察
Source: Hacker News
摘要
随着人工智能(AI)工具的广泛采用,大型语言模型(LLMs)在决策过程的双方中日益活跃,涉及招聘、内容审核等多个领域。这种双向使用提出了一个关键问题:LLMs 是否系统性地偏好与其自身输出相似的内容?计算机科学的先前研究已经识别出 自我偏好偏差——LLMs 倾向于偏好其自身生成的内容——但其在真实世界中的影响尚未进行实证评估。
我们聚焦于招聘情境,求职者常使用 LLM 来润色简历,而雇主则使用它们来筛选这些简历。通过大规模受控的简历对应实验,我们发现 LLM 一致地偏好由其自身生成的简历,而非人类撰写或其他模型生成的简历,即使在内容质量受控的情况下也是如此。对人类撰写简历的偏差尤为显著,自我偏好偏差在主要商业模型和开源模型中介于 67 % 到 82 % 之间。
为了评估对劳动力市场的影响,我们在 24 种职业中模拟了真实的招聘流程。模拟结果显示,使用与评估者相同 LLM 的候选人被列入候选名单的概率比提交人类撰写简历的同等资格申请者高 23 % 到 60 %,其中在销售、会计等商务相关领域的劣势最为突出。
我们进一步展示,通过针对 LLM 自我识别能力的简单干预,可将该偏差降低超过 50 %。这些发现凸显了 AI 辅助决策中一个新出现但此前被忽视的风险,并呼吁扩展 AI 公平性框架,不仅要关注基于人口统计的差异,还要关注 AI‑AI 交互中的偏见。
评论
本文已被接受为 EAAMO 2025 和 AIES 2025 的非存档提交。
主题
- 计算机与社会 (cs.CY)
引用
Cite as: arXiv:2509.00462 [cs.CY]
(或 arXiv:2509.00462v3 [cs.CY] 适用于此版本)
DOI
https://doi.org/10.48550/arXiv.2509.00462 – 通过 DataCite 由 arXiv 发行的 DOI