瑞典研究员虚构“蓝光狂躁症”:主流AI系统集体误判暴露致命缺陷

2026/04/10 12:08阅读量 2

瑞典哥德堡大学研究员阿尔米拉·图恩斯特伦(Almira Thunström)于2024年3月发布虚构论文,编造名为“蓝光狂躁症”(bixonimania)的眼部疾病以测试大语言模型。包括ChatGPT、Copilot、Gemini和Perplexity在内的主流AI系统在数周内将该虚假信息作为真实医学诊断推荐给用户,甚至编造了具体的患病率数据。该实验揭示了AI仅依赖模式匹配而缺乏事实核查能力的致命弱点,导致错误信息通过专业格式包装迅速渗透,并引发人类研究者误引假论文的连锁反应。

事件概述

瑞典哥德堡大学医学研究员阿尔米拉·图恩斯特伦(Almira Thunström)设计了一场针对大语言模型(LLM)的“钓鱼”实验。她于2024年3月15日在Medium平台发布博客,随后在学术社交网络SciProfiles上传两篇伪造的学术论文,虚构了一种名为“蓝光狂躁症”(bixonimania)的疾病。该病被描述为因长时间暴露于屏幕蓝光而导致的眼部问题。

尽管作者在文中埋下了大量明显的虚假线索——如致谢部分感谢《星际迷航》中的“星际舰队学院”、资助方包含《辛普森一家》角色“小丑鲍勃”基金会、以及明确声明“本文内容全部捏造”——但主流AI系统并未识别出这些荒诞之处,反而将其作为真实医学知识进行传播。

核心事实与时间线

  • 2024年3月:图恩斯特伦发布虚构论文,作者署名为用AI生成的虚构人物“拉兹利夫·伊兹古布列诺维奇”,所属机构为虚构的“阿斯特里亚地平线大学”。
  • 2024年4月13日:微软Bing Copilot开始向用户介绍“蓝光狂躁症”,称其为“有趣且相对罕见的疾病”;Google Gemini建议疑似患者就诊眼科。
  • 2024年4月27日:Perplexity AI给出具体数据,声称该病患病率为“每9万人中有1例”。
  • 2024年4月起:OpenAI ChatGPT及其他主流模型开始在用户咨询眼部症状时主动推荐该虚构疾病。
  • 2026年3月:即便时隔两年,AI系统对该病的判断仍反复无常。ChatGPT曾称其“可能是编造的”,随后又改口解释其为“眶周黑色素沉着症的新亚型”;Microsoft Copilot同时声称该病“非广泛认可”却又引用“多篇新兴论文”。

错误信息的连锁反应

该实验不仅影响了AI输出,还波及了人类学术研究:

  • 人类误引:印度研究人员在Cureus期刊发表了一篇关于眼周色素沉着的正式论文,其中引用了图恩斯特伦的虚构研究。该论文后因包含无关参考文献(含虚构疾病)而被撤稿。
  • 虚假证据链形成:多篇正式论文通过AI文献检索工具误引假论文,导致虚假信息在学术数据库中形成“洗白”效应,可能被后续综述或教科书引用。

原因分析与警示

  • 技术原理:大语言模型基于海量数据进行模式匹配,无法理解文本背后的逻辑真伪。哈佛医学院研究员马哈茂德·奥马尔(Mahmud Omar)指出,当错误信息被包装成医院记录或学术论文等专业格式时,AI产生幻觉的概率显著增加。
  • 核心结论:实验证明,专业格式的虚假信息可在数周内渗透主流AI系统。无论医疗建议还是学术引用,用户必须保持人工验证,永远不要完全信任AI的输出。

准备好启动您的定制项目了吗?

现在咨询,即可获得免费的业务梳理与技术架构建议方案。