AI 时代的核心危机:算法正在从“预测工具”演变为“命运分配者”
2026/04/23 23:03阅读量 2
文章指出 AI 已超越单纯的工具属性,在招聘、信贷等制度性场景中演变为决定机会分配的权力。这种“自证预言”机制通过拒绝资源使预设风险成真,形成无法申诉的闭环,导致人的主体性和改变未来的可能性被数据固化。真正的自由在于捍卫“不被提前算完的权利”,即保留人偏离过去数据、重新定义未来的空间。
事件概述
人工智能(AI)正从辅助性的技术工具,转变为一种分配社会机会、定义风险并预审未来的“命运权力”。当 AI 进入招聘、信贷、保险、教育及司法等制度性场景时,其核心问题不再仅仅是技术准确率,而是它如何通过自我实现的预言重塑现实,进而威胁人的主体性与社会公平。
核心事实与机制分析
1. 从“照相机”到“引擎”:模型制造现实
传统观点认为模型应像“照相机”一样客观记录市场或社会现状。然而,金融学家 Donald MacKenzie 在《An Engine, Not a Camera》中指出,Black-Scholes 期权定价模型的普及并未准确描述市场,反而驱动市场按模型预设运行。同理,AI 预测并非被动反映未来,而是主动参与塑造未来:
- 招聘场景:算法判定候选人“不适合”,导致其失去工作机会;缺乏履历使其再次求职时更弱势,从而“验证”了初始预测。
- 信贷场景:模型标记用户为“高风险”并拒贷,剥夺了其改善财务状况的机会,最终导致用户真的陷入贫困,证实了模型判断。
- 推荐系统:算法压低创作者流量,导致其数据表现变差,进而获得更少的推荐,形成恶性循环。
2. “无面孔的暴政”与卡夫卡式困境
与传统权力不同,算法判决往往披着“技术中立”的外衣,缺乏明确的责任主体和申诉路径:
- 黑箱决策:被淘汰者通常只收到自动邮件或分数标签,无法知晓具体的判定依据(如是否因学校、住址、语言风格等隐性变量被误判)。
- 完美犯罪:算法错误地切断了某些人生路径(如未获面试机会),导致这些本可能成功的案例永远无法产生数据证据。系统因此显得“毫发无损”,错误无法被证伪。
3. 人的主体性危机:开放性被数据否定
将人简化为“画像”和风险值,剥夺了人类改变、逆转和创造意外的基本权利:
- 统计决定论:社会开始用预测天气的方式预测人,默认“昨天决定明天”,忽视了人具有悔改、成长和突然改变的能力。
- 不可逆的预判:如果社会过度依赖模型对人的描述,将导致人作为主体的不确定性被削弱,未来被过去的数据提前锁定。
4. 预测市场的危险联盟
AI 与预测市场共同推动“未来可计算化”,使社会以概率而非价值判断组织行动:
- 提前定价:数据与算力拥有者能提前为未来定价,普通人只能接受被预设的现实。
- 精神同构:两者都试图将不确定性转化为可操作的风险结构,关注“什么最可能发生”而非“什么是应该发生的”,导致风险管理滑向命运管理。
关键结论与呼吁
- 自由的新定义:在 AI 时代,最大的自由不仅是想做什么就做什么,更是“不被算法提前算完的权利”。即不因过去的数据被提前判定未来,保留二次机会和重新开始的空间。
- 伦理边界:现代社会不能仅围绕“最优预测”设计制度,必须警惕预测成为自我实现的预言。透明、可争辩、可申诉、可逆转的价值,应与预测准确率同等重要。
- 制度责任:在涉及重大利益分配的场景中,社会需承认人的未来不能被过去的数据独自决定,技术不应代替人类承担关于公平、尊严和希望的判断。
