腾讯混元Hy3 Preview发布:姚顺雨主导底层重构,聚焦快慢思考与生态落地

2026/04/27 19:34阅读量 5

4月23日,腾讯正式发布并开源混元Hy3 Preview语言模型,该模型由首席AI科学家姚顺雨主导,采用295B总参数、21B激活参数的混合专家(MoE)架构,支持256K上下文。模型核心创新在于“快慢思考融合”机制,旨在平衡推理速度与成本,并摒弃传统榜单刷分模式,转向自建真实场景评测体系。尽管在部分复杂全链路任务中表现仍有瑕疵,但腾讯正加速将其接入元宝、微信、QQ等自有生态,试图构建“模型-应用-商业”闭环以应对激烈的行业竞争。

事件概述

2026年4月23日,腾讯正式对外发布并开源了混元Hy3 Preview语言模型。这是腾讯在经历内部战略调整后,由首席AI科学家姚顺雨主导推出的首款重建后的核心模型。官方将其定义为“混元重建后训练的第一个模型”及“迄今最智能的模型”,标志着腾讯大模型从单纯追求榜单成绩向解决真实世界复杂问题转型的关键一步。

核心技术与架构

  • 混合专家(MoE)架构:模型总参数量为2950亿(295B),但每次推理仅激活210亿(21B)参数,激活占比约7.1%。这种设计大幅降低了计算成本,同时保留了处理高难度任务的能力。
  • 快慢思考融合:基于认知科学双系统理论,Hy3 Preview引入了自适应思考机制。面对简单任务时调用“快思考”模式以提升响应速度;面对复杂推理任务时自动切换至“慢思考”模式,调动更多计算资源进行深度推导,从而在速度与能力间寻找最优平衡。
  • 长上下文支持:最大支持256K上下文长度,能够处理长文档和复杂的多轮对话场景。
  • 研发周期:从基础设施重建到模型上线耗时不到三个月,体现了极高的工程迭代效率。

评测体系与性能表现

腾讯明确表示不再参与公开榜单的内卷,转而建立自主评测体系:

  • 自建评测框架:推出CL-bench和CL-bench-Life两套框架,重点考察模型在长杂乱上下文中的信息理解、规则遵循及任务完成能力。
  • 基准测试数据
    • 在编程基准SWE-Bench Verified中得分74.4%,较前代Hy2提升超40%,接近GLM-4.7水平。
    • 在FrontierScience-Olympiad、IMOAnswerBench等高难度理工科推理任务中表现优异。
    • 在全国中学生生物学联赛(CHSBO 2025)等复杂逻辑推理任务中取得优异成绩。
  • 实测局限:在部分全链路综合任务(如跨市场资产配置Memo生成)中,模型存在输出简略、数据获取受阻等问题,显示其在极端复杂场景下的交付完整性仍有提升空间。

商业化定价与策略

  • 定价标准:在腾讯云TokenHub平台,输入价格最低为1.2元/百万tokens,缓存命中0.4元/百万tokens,输出价格最低4元/百万tokens。个人定制套餐最低28元/月。
  • 竞争策略:相比DeepSeek-V4等竞品,Hy3 Preview并非主打绝对低价,而是依托MoE架构的低激活成本,追求“能力-成本-场景”的三角平衡,旨在降低Agent(智能体)高频调用的门槛。

生态落地与应用现状

  • 内部集成:Hy3 Preview已首发上线于腾讯云、元宝、ima、CodeBuddy、WorkBuddy等产品,并正在逐步接入微信公众号、和平精英、腾讯新闻、微信读书等主流产品线。
  • 开源兼容:支持接入OpenClaw、OpenCode、KiloCode等流行开源智能体产品,试图融入更广泛的开源生态。
  • 战略意义:腾讯正尝试通过“自有生态+自有模型”的路径,解决此前多模型接入导致的体验分流问题,构建统一的模型底座,以应对字节、阿里及海外巨头在Agent时代的竞争。

准备好启动您的定制项目了吗?

现在咨询,即可获得免费的业务梳理与技术架构建议方案。