谷歌深夜升级Deep Research:支持MCP协议与原生图表,API优先开放
2026/04/22 10:24阅读量 2
谷歌基于Gemini 3.1 Pro模型推出Deep Research和Deep Research Max两款新一代自主研究智能体,重点强化企业级应用能力。新特性包括支持Model Context Protocol(MCP)连接私有数据源、在报告中原生生成可视化图表,以及通过Interactions API提供异步后台任务处理。目前该功能仅对开发者开放,普通用户无法在Gemini App中直接使用。
事件概述
谷歌于2026年4月22日深夜宣布重大更新,推出基于Gemini 3.1 Pro模型构建的两款新一代自主研究智能体:Deep Research(标准版)和Deep Research Max(增强版)。此次更新标志着AI研究工具从个人辅助向企业级基础设施的转型,旨在应对OpenAI(Hermes)、Perplexity等竞争对手在“AI研究/分析”高价值场景的挑战。
核心信息
1. 双版本策略适配不同场景
- Deep Research(标准版):侧重低延迟与低成本,适用于对速度要求较高的拼速场景。
- Deep Research Max:侧重深度推理与质量,通过扩展测试时计算(extended test-time compute)进行深入的搜索、迭代和综合。其基准测试成绩显示:DeepSearchQA达到93.3%,HLE达到54.6%。适合夜间定时任务(cron job)等异步工作流,如自动生成尽职调查报告。
2. 关键功能升级
- 支持Model Context Protocol (MCP):
- MCP是一种新兴开放标准,允许智能体安全连接外部数据源(如私有数据库、内部文档、第三方专业服务),且敏感数据无需离开原始环境。
- 谷歌正与FactSet、标普(S&P)、PitchBook等金融机构合作设计MCP服务端,旨在解决企业AI应用中“公开网络信息”与“内部决策数据”割裂的痛点。
- 开发者可通过单次API调用融合开放网络数据与企业专有信息。
- 原生图表与信息图生成:
- 新一代智能体可在研究报告中直接内嵌高质量图表和信息图,支持HTML或Nano Banana格式动态渲染复杂数据集。
- 这一功能消除了以往需导出数据后手动制图的步骤,使工具从“加速研究阶段”转变为能产出接近最终交付产品的分析工具。
- 多模态输入与细粒度控制:
- 支持PDF、CSV、图像、音频、视频等多模态输入作为上下文(grounding)。
- 新增协作式规划功能,允许用户在执行前审查、指导智能体的研究计划,并实时流式输出中间推理步骤,满足监管行业对透明度的要求。
3. 发布渠道与底层技术
- 访问方式:即日起通过Gemini API的付费套餐以公开预览版形式开放,需通过2025年12月推出的Interactions API进行访问。普通用户无法在Gemini App(含Pro订阅版)中直接使用此功能。
- 底层模型:驱动本次改进的是2026年2月19日发布的Gemini 3.1 Pro。该模型在ARC-AGI-2基准测试中得分77.1%,是Gemini 3 Pro的两倍多,核心推理能力实现飞跃。
- 技术定位:谷歌明确表示,通过API提供的智能体与其旗下Gemini App、NotebookLM、Google Search等产品使用的同一套自主研究基础设施,并非简化版。
4. 竞争对比与争议
- 基准测试差异:谷歌展示了其在检索和推理任务上的进步,但部分横向对比存在局限性。例如,OpenAI最强的搜索模型GPT-5.4 Pro在BrowseComp基准上得分89.3%,而谷歌未将其纳入对比;Anthropic的Opus 4.6在关闭推理功能下得分84%,高于谷歌展示数值。评测方法(原始API vs 封装工具链)的差异可能导致数据解读偏差。
- 用户反馈:由于功能仅限API调用,部分Gemini App Pro订阅用户表示不满,认为自身权益未得到覆盖。
值得关注
- 企业级落地潜力:Deep Research正试图取代投资银行初级分析师的基础研究工作,其能否真正弥合从“研究生助手”到“专业分析师”的差距,将决定其是否成为企业软件领域的变革性产品。
- 生态整合:通过与华尔街主流数据提供商的深度整合,MCP支持有望大幅降低企业定制开发成本,推动AI在金融、咨询等高门槛行业的规模化应用。
