Cell子刊警示:AI正导致人类表达与思维同质化,认知多样性面临侵蚀
南加州大学研究团队在《Trends in Cognitive Sciences》发表观点指出,大语言模型(LLM)正在重塑人类的语言风格、观点立场及推理方式,导致认知多样性显著下降。这种同质化源于训练数据的主流偏差及“循环反馈”机制,可能掩盖健康信号并削弱人类创新能力。文章呼吁警惕AI从被动工具转变为主动塑造者,需共同维护人类思维的生态多样性。
事件概述
近日,南加州大学计算机科学家 Zhivar Sourati 等人在 Cell 子刊《Trends in Cognitive Sciences》发表题为《The homogenizing effect of large language models on human expression and thought》的观点文章。文章核心指出,大语言模型(LLM)不仅是被动的工具,更作为一种“主动的塑造者”,正在导致人类在语言风格、观点和思维方式上趋于同质化,进而侵蚀作为人类创造力与适应性基石的认知多样性。
核心影响分析
1. 语言的“美颜滤镜”:抹去个人特征
- 写作复杂性趋同:使用 LLM 润色各类文本(如社交媒体、新闻稿、学术摘要)后,文本的写作复杂性趋于一致,原本能预测作者政治倾向、性格、年龄或性别的语言特征被抹去。
- 健康信号风险:这种“语言标准化”不仅消除了个人独特的语言指纹,还可能掩盖阿尔茨海默病早期语言特征等重要健康预警信号。
2. 观点的“主流回声”:校准至单一立场
- 数据偏差:LLM 的观点倾向于反映西方、受教育程度高、工业化及富裕社会的特征,其回答的多样性远低于真实人类,更贴近所谓“主流”立场。
- 隐性校准:频繁与高度一致的模型对话,会导致用户自身的观点和表达框架不自觉地被“校准”。即使尝试让 AI 模拟特定身份,结果往往也是刻板印象的堆砌,而非真实的多元群体经验。
3. 思维的“最佳路径”依赖:削弱创新与认知能力
- 推理模板固化:LLM 被优化以追求“最佳性能”,广泛使用的“思维链”(Chain of Thought, CoT)等技术强化了线性的、显式的推理模板,削弱了推理策略的多样性。
- 创意相似度升高:在创意任务中,得到 LLM 协助的人产出的点子语义相似度显著升高。
- 神经科学证据:研究发现,用 LLM 辅助写作时,大脑的神经耦合最弱,记忆召回效果也更差,暗示人类可能正在将思考核心过程“外包”给 AI,付出认知能力退化的代价。
恶性循环机制:从数据到模型的收紧旋涡
同质化现象并非偶然,而是由以下机制形成的闭环:
- 数据源头偏差:LLM 训练数据过度代表网络主流内容,且训练目标(预测下一个词)天然倾向于复现最常见模式,“平滑”掉特殊表达。
- 反馈循环:越来越多的人使用少数主流 LLM → 生成同质化内容发布上网 → 这些内容成为下一代模型的训练数据 → 模型输出进一步同质化。
这一过程如同不断收紧的旋涡,将人类表达的多样性卷入越来越窄的通道,被作者类比为社会学中的“麦当劳化”——牺牲情境丰富性和独特性以换取效率和控制。
关键结论与展望
论文作者并未全盘否定 AI 价值,但强调必须警惕其作为活跃参与者的塑造力。未来研究需关注:
- 如何让 AI 的“对齐”技术真正尊重人类认知的深层多样性。
- 长期依赖 AI 进行思考对大脑产生的不可逆影响。
- 能否通过产品设计帮助用户保持主动性和独特性。
保护人类语言、思维和表达的“生态多样性”,已成为 AI 时代人类面临的重要文化命题。
