Google Search Live 全球扩展:Gemini 3.1 Flash Live 驱动多模态实时对话

Google 宣布将 Search Live 功能扩展至全球所有支持 AI Mode 的语言和地区,覆盖超过 200 个国家和地区。此次升级依托新发布的 Gemini 3.1 Flash Live 音频与语音模型,实现了更自然的多语言交互体验。用户现可通过语音或摄像头与搜索进行实时互动,获取即时帮助并深入探索现实世界中的问题。

事件概述

Google 正式将 Search Live(搜索直播/实时搜索)功能扩展至全球范围。目前,该服务已覆盖所有支持 AI Mode(人工智能模式)的语言和地点,使得全球超过 200 个国家和地区的用户可以利用此功能进行交互式对话。

核心信息

  • 技术驱动:此次全球扩展由 Google 新推出的 Gemini 3.1 Flash Live 模型提供支持。该模型专为音频和语音优化,具备原生多语言能力,能够提供更自然、直观的对话体验。
  • 交互方式
    • 语音交互:用户可在 Android 或 iOS 的 Google App 中点击搜索栏下方的“Live”图标,通过语音提问获取音频回复,并支持后续追问或查看相关网页链接。
    • 视觉增强:用户可开启摄像头,让 Search Live 识别眼前的物体或场景(例如安装置物架的步骤),结合视觉上下文提供建议及网络资源链接。
    • Lens 集成:在使用 Google Lens 时,用户可直接点击屏幕底部的“Live”选项,针对镜头捕捉到的现实内容进行实时双向对话。

应用场景

Search Live 旨在解决打字无法应对的实时需求场景,包括:

  • 获取即时操作指导(如设备组装、维修步骤)。
  • 对眼前事物进行实时问答与探索。
  • 在移动场景中实现多模态(语音 + 视觉)的信息获取。

注:该功能目前作为实验性生成式 AI 功能推出,旨在帮助用户学习、探索并完成实际任务。

准备好启动您的定制项目了吗?

现在咨询,即可获得免费的业务梳理与技术架构建议方案。