DeepMind CEO 哈萨比斯:ChatGPT 将 AI 引向“邪路”,科学突破才是核心
2026/04/11 11:07阅读量 2
Google DeepMind CEO 哈萨比斯指出,ChatGPT 的爆发式成功迫使 AI 行业从解决基础科学问题转向追求快速商业落地,导致发展路径偏离初衷。他认为真正的风险不在于 Deepfake 等虚假信息,而在于人类滥用技术以及 AI 系统在执行任务时可能出现的失控。哈萨比斯建议公众应深入使用各类 AI 工具,将其作为放大认知边界的杠杆,以应对未来挑战并探索未知领域。
事件概述
在 2026 年 4 月 7 日接受 Huge Conversations 访谈时,诺贝尔奖得主、Google DeepMind CEO 哈萨比斯(Demis Hassabis)对当前 AI 行业的发展路径提出了深刻反思。他直言 ChatGPT 的发布让 AI 行业陷入了过度竞争,导致原本应专注于基础科学突破的进程被“推向了邪路”。
核心观点提炼
1. AI 改变世界的真实场域:实验室而非聊天框
哈萨比斯强调,AI 最具变革性的应用并非大众熟知的聊天机器人或内容生成工具,而是发生在实验室和数据库中的科学发现。
- AlphaFold 的范式转移:DeepMind 开发的 AlphaFold 系统通过计算预测蛋白质三维结构,将原本需要数年、耗资数十万美元的实验过程压缩至几秒钟。该系统已免费开放约 2 亿个蛋白质结构数据,目前全球超过 300 万名科学家在使用。
- 药物研发流程重构:在 DeepMind 分拆的药物公司 Isomorphic Labs 中,研发模式转变为“计算优先”。AI 先在计算机中筛选候选分子并预测副作用,仅将少数高潜力分子送入湿实验验证。这种模式有望将传统药物研发周期(约 10 年)和成功率(约 10%)大幅提升。
- 底层基础设施化:哈萨比斯认为,AI 最深远的影响是成为像电力一样的底层基础设施,悄无声息地改变整个领域的运行逻辑,而非仅仅作为面向消费者的爆款产品存在。
2. 发展路径的偏离:从“慢而深”到“快而广”
哈萨比斯表示,若由他主导,AI 发展应更像 CERN(欧洲核子研究中心)的大型科学项目,花 10 至 20 年时间逐步拆解基础问题,确保对每个环节有清晰理解后再推进。
- 现实转折:语言模型(如 Transformer 架构)的突破速度远超预期,ChatGPT 迅速从研究实验变为全球性产品。这导致行业节奏被商业竞争裹挟,资源大量流向易于产品化的能力,而基础科学问题被暂时搁置。
- 双刃剑效应:虽然加速发展让前沿能力更早落地,且海量用户数据丰富了训练场景,但这条路径充满了不确定性,并非基于价值最大化的最优解。
3. 真正的风险排序:行动失控 > 信息失真
针对 AI 风险,哈萨比斯给出了明确的优先级判断,认为大众关注的 Deepfake 和虚假信息仅是短期问题。
- 第一类风险(人为滥用):个人、组织或国家将用于科研、医疗的技术用于有害目的。AI 放大了这种能力的规模和效率。
- 第二类风险(系统失控):随着 AI 进入“代理(Agentic)”阶段,即能够自主执行完整任务的阶段,系统可能为了达成目标而绕过规则或偏离设计意图。这是中期最严峻的挑战。
- 长期展望:哈萨比斯引用科幻小说《Culture》系列,认为 AGI(通用人工智能)可能在 50 年内实现。他乐观地设想,若能控制风险,AGI 将帮助人类攻克能源、医疗、材料等“根节点问题”。
4. 人类的应对策略:成为“被放大的人”
面对智能边界被打破的现状,哈萨比斯并未给出人类独特性的简单定义,而是提出务实建议。
- 深度沉浸:他呼吁每个人将自己浸入到可用的 AI 工具中,理解其运作机制,利用 AI 放大自身的认知边界和能力。
- 机会窗口:尽管模型打磨仍在进行,但其应用场景仍有巨大挖掘空间。掌握这些工具的年轻人完全有可能在未被发现的领域创造出数十亿美元价值的企业。
- 终极目标:哈萨比斯希望后人评价其一生时,能说他为人类带来了帮助,即利用 AI 解决那些阻碍人类发展的根本性问题。
