DeepSeek V4 正式发布:双版本开源,百万上下文标配,明确适配华为算力

2026/04/24 12:17阅读量 3

DeepSeek 正式开源 V4 系列模型,推出 Pro 与 Flash 两个版本,在 Agent 能力、世界知识及推理性能上达到国内开源领先并比肩顶级闭源模型。该系列将 1M 上下文设为标配,采用新型注意力机制降低计算成本,并宣布下半年将批量部署华为算力。旧版模型将于三个月后停用,API 接口同步更新以支持新模型调用。

事件概述

DeepSeek 正式推出 DeepSeek-V4 系列模型,包含 DeepSeek-V4-ProDeepSeek-V4-Flash 两个版本,均实现同步开源、官网上线及 API 服务更新。官方宣称该系列在 Agent 能力、世界知识和推理性能上实现了国内与开源领域的领先。

核心信息

1. 模型规格与定位

  • DeepSeek-V4-Pro:对标顶级闭源模型。参数量 1.6T,激活参数 49B,上下文长度 1M。
    • Agent 能力:在 Agentic Coding 评测中达到当前开源最佳水平。内部测评显示,其体验优于 Sonnet 4.5,交付质量接近 Opus 4.6(非思考模式),但与 Opus 4.6(思考模式)仍有差距。
    • 世界知识:大幅领先其他开源模型,仅稍逊于 Gemini-Pro-3.1。
    • 推理性能:在数学、STEM 及竞赛代码测评中超越所有已公开评测的开源模型。
  • DeepSeek-V4-Flash:经济版,追求更小更快。参数量 284B,激活参数 13B,上下文长度 1M。
    • 性能表现:推理能力接近 Pro 版本,世界知识储备稍逊。在简单 Agent 任务上与 Pro 旗鼓相当,但在高难度任务上存在差距。

2. 技术突破:百万上下文标配

  • 背景:此前 1M 上下文多为闭源模型(如 Gemini)独占或高昂成本功能,开源领域罕见。
  • 实现方案:V4 开创了一种全新的注意力机制,在 token 维度进行压缩,并结合 DSA 稀疏注意力(Sparse Attention)技术。
  • 效果:相比传统方法,大幅降低了对计算资源和显存的需求,使 1M 上下文成为所有官方服务的标配且支持开源。

3. 生态适配与 API 更新

  • Agent 优化:针对 Claude Code、OpenClaw、OpenCode、CodeBuddy 等主流 Agent 产品进行了适配和优化,提升了代码任务和文档生成任务的表现。
  • 接口兼容:支持 OpenAI ChatCompletions 接口和 Anthropic 接口两套标准。
    • 调用方式:保持 base_url 不变,将 model 参数修改为 deepseek-v4-prodeepseek-v4-flash
  • 模式支持:两版本均支持非思考模式和思考模式。思考模式下可通过 reasoning_effort 参数调整强度(high/max),官方建议复杂 Agent 场景使用 max。

4. 算力战略与旧模型迁移

  • 国产算力:明确规划下半年批量上量华为算力。
  • 旧模型下架
    • deepseek-chatdeepseek-reasoner 将在 2026 年 7 月 24 日 停用。
    • 过渡期内,这两个名称分别指向 V4-Flash 的非思考和思考模式。
    • 个人开发者仅需修改 model 参数;生产环境需在未来三个月内完成迁移。

值得关注

准备好启动您的定制项目了吗?

现在咨询,即可获得免费的业务梳理与技术架构建议方案。