Google Search Live 全球扩展:Gemini 3.1 Flash Live 驱动多模态实时对话
Google 宣布将 Search Live 功能扩展至全球所有支持 AI Mode 的语言和地区,覆盖超过 200 个国家和地区。此次升级依托新发布的 Gemini 3.1 Flash Live 音频与语音模型,实现了更自然的多语言交互体验。用户现可通过语音或摄像头与搜索进行实时互动,获取即时帮助并深入探索现实世界中的问题。
事件概述
Google 正式将 Search Live(搜索直播/实时搜索)功能扩展至全球范围。目前,该服务已覆盖所有支持 AI Mode(人工智能模式)的语言和地点,使得全球超过 200 个国家和地区的用户可以利用此功能进行交互式对话。
核心信息
- 技术驱动:此次全球扩展由 Google 新推出的 Gemini 3.1 Flash Live 模型提供支持。该模型专为音频和语音优化,具备原生多语言能力,能够提供更自然、直观的对话体验。
- 交互方式:
- 语音交互:用户可在 Android 或 iOS 的 Google App 中点击搜索栏下方的“Live”图标,通过语音提问获取音频回复,并支持后续追问或查看相关网页链接。
- 视觉增强:用户可开启摄像头,让 Search Live 识别眼前的物体或场景(例如安装置物架的步骤),结合视觉上下文提供建议及网络资源链接。
- Lens 集成:在使用 Google Lens 时,用户可直接点击屏幕底部的“Live”选项,针对镜头捕捉到的现实内容进行实时双向对话。
应用场景
Search Live 旨在解决打字无法应对的实时需求场景,包括:
- 获取即时操作指导(如设备组装、维修步骤)。
- 对眼前事物进行实时问答与探索。
- 在移动场景中实现多模态(语音 + 视觉)的信息获取。
注:该功能目前作为实验性生成式 AI 功能推出,旨在帮助用户学习、探索并完成实际任务。
