高通展望个人AI未来:端侧智能体将驱动多终端协同体验
高通在CFMS|MemoryS 2026峰会上提出,个人AI将始于端侧,正迈向以AI和用户为中心的多终端体验。演讲指出行业正处于从生成式AI向智能体AI演进的关键期,端侧模型在参数量、上下文长度及多模态能力上显著提升。高通通过统一技术路线,利用混合AI架构实现终端、边缘与云端的协同,旨在提供低时延、高个性化且无感的用户体验。
事件概述
3月27日,在CFMS|MemoryS 2026峰会上,高通公司AI产品技术中国区负责人万卫星发表主题演讲,阐述了个人AI的发展路径。高通认为,个人AI将始于端侧,并逐步演变为以AI和用户为中心的多终端协同体验。凭借统一的技术路线,高通致力于构建高性能、高能效的软硬件底座,赋能跨终端、跨场景的平台级能力。
核心信息
1. AI演进阶段与当前焦点
行业应用主要经历四个阶段:
- 感知AI:已商业化落地(如手机计算摄影),处理语音理解、图像分类等任务。
- 生成式AI:基于预训练数据解决具体问题(如ChatGPT、文生图)。
- 智能体AI:当前关注重点。具备无监督理解用户意图、自主决策和行动的能力,可解决复杂任务。
- 物理AI:早期探索阶段,能理解物理世界规则并进行反馈。
2. 端侧生成式AI的发展趋势
- 模型规模扩大:手机端支持10亿至100亿参数模型;PC端支持130亿至200亿参数;车机端可达200亿至600亿;AR眼镜等低功耗设备支持10亿至40亿参数模型。
- 上下文长度提升:从三年前的1k-2k,发展至目前的4k-8k,特定场景下已支持32k-128k。
- 多模态融合:从单一模态向语音、文字、视觉、传感器等多模态甚至全模态演进。例如,50亿参数的全模态模型已在端侧运行。
- 技术驱动:内存带宽提升和量化位宽优化等技术推动了端侧大模型承载能力的增强。
3. 端侧部署的优势与挑战
- 优势:
- 极致个性化:数据源在端侧,推理过程更自然,隐私保护更好。
- 成本与连接:无需网络连接,降低运营成本,随时随地可用。
- 挑战:
- 内存限制:有限的内存容量制约了可运行模型的大小上限。
- 带宽瓶颈:自回归网络受内存带宽限制,影响Token输出速度和用户体验。
- 能效管理:需平衡性能与发热,避免触发温控限制。
4. 智能体AI的核心趋势
- 深度适配:提供更低时延、更好个性化及持续无感的体验。
- 专业化分工:从通用模型转向任务专业化,利用多智能体框架解决问题。
- 高度个性化:不再是简单对话助手,而是能理解用户意图、上下文及感知信息的真正“懂你”的AI。
- 交互范式变革:AI成为新的UI(用户界面)。用户通过自然语言交互,智能体自动拆解任务并规划执行,结合端侧大模型与云端模型协同工作。
5. 多终端协同与混合AI架构
- 体验升级:从“以手机为中心”转向“以AI和用户为中心”。AI不再绑定单一设备,而是通过多个设备灵活协同完成任务。
- 混合架构:个人AI非孤立运行,采用终端侧、本地边缘、网络边缘和中央云协同工作的混合AI架构。
- 硬件支撑:
- 消费端:第五代骁龙8至尊版移动平台、骁龙X2 Elite计算平台等已商用。
- 数据中心:发布基于Qualcomm® AI200和AI250芯片的加速卡和机架系统,其中AI250引入创新内存架构,提升效率。
值得关注
高通荣获本次峰会颁发的“年度AI生态杰出贡献奖”,表彰其在推动业务从智能手机扩展至个人AI、可穿戴设备、PC、汽车及工业物联网等领域,构建“边缘智能生态”方面的贡献。
