DeepMind CEO哈萨比斯:AGI需突破上下文扩容,构建持续学习与记忆机制
2026/04/30 10:40阅读量 3
DeepMind CEO Demis Hassabis在访谈中指出,单纯扩大大模型上下文窗口是低效的暴力手段,实现AGI的关键在于建立类似人脑的持续学习与记忆整合机制。他强调强化学习、端侧小模型及AI驱动的科学发现(如虚拟细胞)是通往通用智能的核心路径,并预测AGI将在2030年左右实现。此外,他建议创业者应构建高度专业化的垂直系统而非强行整合通用模型,以应对未来的技术变革。
事件概述
4月29日,谷歌DeepMind首席执行官Demis Hassabis(哈萨比斯)接受YC创始人Garry Tan访谈,深入探讨了通往通用人工智能(AGI)的技术瓶颈与演进路径。Hassabis指出,当前行业过度依赖“暴力式”扩大上下文窗口的做法存在成本高昂且效率低下的问题,真正的AGI需要突破单纯的参数堆叠,转向具备持续学习、长期记忆及内省推理能力的架构。
核心观点与技术路径
1. AGI的核心挑战:从“暴力扩容”到“优雅记忆”
- 上下文窗口的局限性:尽管当前模型已支持千万级Token的上下文,但将所有信息(包括无用或错误数据)塞入工作记忆是一种计算资源的浪费。在实时视频处理等场景下,百万级Token仅能支撑约20分钟的内容,无法满足长期记忆需求。
- 记忆整合机制:Hassabis提出“优雅的知识融合”概念,主张借鉴生物大脑的睡眠巩固机制(如AlphaGo的经验回放),让系统在非活跃期将新知识融入现有知识库,而非每次从头读取冗长历史。
- 持续学习缺失:现有模型缺乏状态保持能力,难以适应具体语境,这是阻碍智能体执行完整任务的关键短板。
2. 强化学习与推理能力的重塑
- 重新引入经典算法:蒙特卡洛树搜索(MCTS)等AlphaGo时代的经典算法正被重新应用于大模型,以解决当前模型推理时缺乏内省、易陷入“错误答案循环”的问题。
- 强化学习的低估:Hassabis认为强化学习(RL)是实现主动决策和智能体架构的关键,目前被严重低估。前沿模型的思维链推理本质上是AlphaGo理念的复现,未来需将RL与大模型深度融合以突破推理天花板。
3. 端侧小模型与云边协同架构
- 模型蒸馏技术:通过蒸馏技术,极小参数量模型(如Gemma系列)可达到前沿大模型95%的性能,而成本仅为十分之一。
- 边缘计算的必然性:Gemini Nano已部署至安卓设备,两周内下载量超4000万次。未来将形成“云-端协同”架构:云端大模型负责复杂统筹,本地小模型处理隐私数据及实时交互。
- 开源战略:鉴于端侧模型一旦部署极易被提取,直接开源边缘模型(如Nano级别)是战略上的必然选择,旨在加速生态建设。
4. AI科学发现的突破标准
- “爱因斯坦测试”:衡量AI科学发现能力的标准不仅是模式匹配,而是能否仅凭基础输入(如1901年前的物理知识)自主推导出新理论(如狭义相对论)。
- 虚拟细胞目标:AlphaFold 3已扩展至全生物分子领域。DeepMind计划从“细胞核”切入,目标在十年内构建完整的“虚拟细胞”,实现对细胞的扰动模拟与合成数据生成。
- 跨学科深科技创业:Hassabis强调,结合材料学、医学等深科技领域的跨学科创业最具抗冲击性,需做好10年持续投入的准备。
5. 创业者的生存策略与AGI时间表
- 时间预测:Hassabis预测AGI将在2030年左右实现。
- 专业化垂直系统:面对AGI的到来,创业者不应试图将垂直领域的复杂参数强行塞进通用大模型,而应构建独立的、高度专业化的工具系统(如AlphaFold作为独立工具被Gemini调用)。未来AGI将作为“大脑”自主调用这些垂直系统。
- 创新周期:科技企业的成长周期通常为十年,这意味着AGI将在当前创业周期的中途实现,企业需提前布局专业化基础设施。
