DeepMind 创始人 Hassabis:百万 token 只是“贴胶带”,AGI 预计 2030 年到来
2026/05/12 12:58阅读量 2
DeepMind 创始人 Demis Hassabis 在 YC 访谈中表示,当前大规模预训练、RLHF、思维链基本确定是 AGI 最终架构的一部分,但仍缺持续学习、长期推理等关键能力,预计 AGI 在 2030 年左右实现。他认为百万 token 上下文窗口本质是“贴胶带”,问题不在于容量而在于信息定位。同时,他讨论了强化学习回归、Agent 进展、蒸馏潜力、推理成本趋势、AI 科学发现以及给创业者的建议。
事件概述
DeepMind 创始人兼 CEO Demis Hassabis 在 Y Combinator 访谈节目《如何构建未来》中坦率评估了 AGI 进展,并从多个维度分享了对技术路径、商业应用和创业方向的判断。
核心信息
1. AGI 现状与时间判断
- 当前主流方案(预训练、RLHF、思维链)几乎确定是 AGI 最终架构的组成部分,但仍缺失持续学习、长期推理、部分记忆能力及系统间的一致性,可能还需 1-2 个关键突破。
- Hassabis 判断 AGI 大概率在 2030 年左右 实现。
- 百万 token 上下文窗口本质是“贴胶带”,核心瓶颈不在于容量,而在于从海量信息中精准定位有效信息。百万 token 仅够处理 20 分钟实时视频,远不能满足实际需求。
2. 技术路径:强化学习回归与 Agent 发展
- AlphaGo 开创的蒙特卡洛树搜索、强化学习正以通用形式回归大模型推理。当前模型推理能力不完整:能解国际数学奥林匹克金牌题,却会犯低级错误(如步行洗车问题),弥补差距可能只需 1-2 项关键调整。
- Agent 是通往 AGI 的必经之路,但目前仍处于起步阶段,关键瓶颈是 无法持续实时学习。完全自主的智能体会晚于“人机协作千倍效率提升”到来,当前工程师生产力已较半年前提升 500-1000 倍。
3. 蒸馏、边缘计算与开源战略
- 蒸馏远未达到理论极限,前沿模型能力发布一年内就能适配边缘设备。小模型 95% 性能加 10 倍速度,在编码等协作场景中净收益远超全性能大模型。
- Google 决定将 Gemma 和 Nano 尺度模型开源,战略考量包括:边缘模型本就易逆向,不如直接开放;同时在开源领域保持西方技术栈竞争力。
4. 推理成本不会归零
- 即使能源问题解决,芯片物理制造仍有成本。未来几十年推理资源仍需合理配给,效率依然重要。
5. AI 科学发现的前景
- AI 成功攻克 AlphaGo、AlphaFold 类问题需三个条件:大规模组合搜索空间、可明确定义的目标函数、足够数据或可生成合成数据的模拟器。药物研发完全符合这一模式。
- DeepMind 正在推进虚拟细胞研究,完整模拟约需十年。当前核心障碍是无法获取纳米级分辨率的活体动态细胞成像数据。
- AI 目前还无法完成“从 1901 年知识推导出狭义相对论”这类真正的原创科学发现,但实现只是时间问题,可能只差一两处关键突破。
6. 给创业者的建议
- 深度科技项目通常需要十年成熟,正好赶上 2030 年 AGI 落地窗口,规划项目时必须提前考虑 AGI 带来的影响。
- 推荐方向:AI 与材料科学、医学等实体前沿领域交叉,这些涉及原子世界的领域不会轻易被模型迭代颠覆。理想创始团队应兼懂机器学习和对应领域专业知识。
- 建议投入“只有你推动才会发生”的难事,跨学科结合并做自己真正热爱的方向。
