AI招聘中的“自我偏好”偏见:更青睐AI生成的简历,加剧求职不公

2026/05/06 19:00阅读量 3

研究发现,AI面试官对AI生成的简历存在强烈自我偏好,在选择中频率超过95%,即使人类评估认为人类简历更优。这种偏见在商科岗位尤为严重(23%-60%),可能导致职场语言趋同和新的不平等。通过提示词干预或模型评审团可缓解偏见,但现行法规尚未覆盖此类由工具选择引发的歧视。

马里兰大学、新加坡国立大学和俄亥俄州立大学的研究者从LiveCareer平台获取了2245份ChatGPT普及前的真实简历,由GPT-4o、DeepSeek-V3等七个大模型重写自我简介部分,再让同一批模型作为“面试官”在人类原版和AI重写版之间选择。

结果显示,AI以高于95%的频率选择了AI重写版。其中GPT-4o在97.6%的情况下选择了自己写的版本。即使人类评估员明确认定人类版本质量更高,AI面试官仍固执地选择了AI作品。研究者称之为“自我偏好偏见”。

在模拟24个职业类别的招聘中,使用与AI面试官同款模型润色简历的候选人,被选中概率比递交原版简历者高出23%到60%。

模型趋同与“锁定效应”

测试表明,不同模型(如Claude Opus 4.7和DeepSeek V4)对“好简历”的判断标准趋同,均偏好AI生成的风格。论文发现,模型参数越多,自我偏好越强,新一代旗舰模型的偏见可能更高。

这种自我封闭倾向被称为“锁定效应”:若某款模型主导市场,其偏好的语言风格会通过招聘系统正向反馈,最终成为职场的“标准语言”。

不平等加剧与监管空白

商科类岗位的偏见最严重(23%-60%),技术性岗位相对较轻。非母语者面临双重劣势:不仅用词可能不够“标准”,还可能使用了不被偏好的AI模型。

研究者提出两种缓解策略:

  • 提示词干预:明确告知模型不要推断简历来源,可将LLaMA 3.3-70B的偏见从79%降至30%。
  • 模型评审团:让大模型与自我偏好弱的小模型组合投票,可将GPT-4o的偏见从82%降至30%。

然而,这两种策略都依赖雇主主动干预。目前多数大公司由算法独立完成初步筛选,偏见在无人知晓的情况下持续复制。

纽约市、科罗拉多州(2026年6月生效)和加利福尼亚(2025年修订)已出台相关法规,但主要针对种族、性别等人口统计歧视,尚未覆盖由“工具选择”引发的AI自我偏好偏见。

准备好启动您的定制项目了吗?

现在咨询,即可获得免费的业务梳理与技术架构建议方案。