高通展望个人AI未来:端侧智能体将重塑多终端协同体验
在CFMS|MemoryS 2026峰会上,高通指出个人AI将始于端侧,正从以手机为中心转向以AI和用户为中心的多终端体验。高通展示了端侧模型参数量与上下文长度的显著提升,并强调智能体AI将通过低时延、高个性化及持续无感的交互改变用户范式。此外,高通凭借跨终端、跨场景的统一技术路线,荣获“年度AI生态杰出贡献奖”,推动边缘智能生态落地。
事件概述
3月27日,CFMS|MemoryS 2026 峰会在深圳举办,主题为“穿越周期,释放价值”。高通公司AI产品技术中国区负责人万卫星出席并发表题为《引领智能体AI创新,在端侧构建个人AI未来》的演讲,系统阐述了个人AI的发展阶段、端侧部署趋势及多终端协同愿景。
核心信息
AI演进四阶段
万卫星将AI行业应用划分为四个阶段:
- 感知AI:已商业化落地,如计算摄影、语音理解、图像分类等。
- 生成式AI:基于大量数据预训练,解决具体任务(如ChatGPT、文生图)。
- 智能体AI:当前关注重点,具备无监督理解意图、自主决策和行动能力,可处理复杂任务。
- 物理AI:早期探索阶段,旨在理解物理世界并反馈输出。
端侧生成式AI发展趋势
- 模型规模扩大:手机端支持10亿至100亿参数,PC端支持130亿至200亿参数,车端可达200亿至600亿参数;AR眼镜等低功耗设备已实现10亿至40亿参数模型端侧运行。
- 上下文长度提升:从三年前的1k-2k扩展至目前的4k-8k,特定场景下已支持32k-128k。
- 多模态融合:从单一模态向语音、文字、视觉、传感器等多模态甚至全模态演进。高通曾展示50亿参数全模态模型在端侧运行。
端侧部署的优势与挑战
- 优势:数据源在端侧,推理更自然且隐私保护更好;无需网络连接,成本更低;支持随时随地服务。
- 挑战:
- 内存限制:制约模型大小上限。
- 带宽瓶颈:影响自回归网络输出速度,进而影响用户体验。
- 能效问题:需避免AI推理触发温控导致设备发热,需在内存、带宽、性能与能效间取得平衡。
智能体AI的关键趋势
- 深度适配:提供低时延、高个性化及持续无感的用户体验。
- 专业化分工:从通用模型转向任务专业化,通过多智能体框架解决问题。
- 高度个性化:不再是简单对话助手,而是能理解用户意图、上下文及感知信息的真正懂你的AI。
交互范式变革:AI是新的UI
- 用户不再围绕单一APP交互,而是通过语音或文本与自然语言智能体交互。
- 智能体理解意图后分解任务,结合端侧大模型与云端模型完成娱乐、生产力及行业应用。
多终端协同体验
- 从“手机中心”到“AI与用户中心”:AI不再绑定单一设备,而是通过多个设备灵活协同完成任务。
- 混合AI架构:终端侧、本地边缘、网络边缘与中央云协同工作。
- 统一技术底座:高通通过第五代骁龙8至尊版移动平台、骁龙X2 Elite计算平台等产品,提供高性能、高能效的软硬件基础,赋能手机、可穿戴、PC、汽车及数据中心等全场景。
值得关注
- 荣誉表彰:MemoryS大奖期间,高通因将业务扩展至个人AI、智能穿戴、PC、汽车及工业物联网等领域,引领构建“边缘智能生态”,荣获“年度AI生态杰出贡献奖”。
- 数据中心布局:高通在MWC发布基于Qualcomm® AI200和AI250芯片的加速卡和机架系统,其中AI250引入创新内存架构,显著降低总体拥有成本(TCO)并提升效率。
