DeepSeek V4 正式发布:双版本开源,百万上下文标配,明确适配华为算力
2026/04/24 12:17阅读量 3
DeepSeek 正式开源 V4 系列模型,推出 Pro 与 Flash 两个版本,在 Agent 能力、世界知识及推理性能上达到国内开源领先并比肩顶级闭源模型。该系列将 1M 上下文设为标配,采用新型注意力机制降低计算成本,并宣布下半年将批量部署华为算力。旧版模型将于三个月后停用,API 接口同步更新以支持新模型调用。
事件概述
DeepSeek 正式推出 DeepSeek-V4 系列模型,包含 DeepSeek-V4-Pro 和 DeepSeek-V4-Flash 两个版本,均实现同步开源、官网上线及 API 服务更新。官方宣称该系列在 Agent 能力、世界知识和推理性能上实现了国内与开源领域的领先。
核心信息
1. 模型规格与定位
- DeepSeek-V4-Pro:对标顶级闭源模型。参数量 1.6T,激活参数 49B,上下文长度 1M。
- Agent 能力:在 Agentic Coding 评测中达到当前开源最佳水平。内部测评显示,其体验优于 Sonnet 4.5,交付质量接近 Opus 4.6(非思考模式),但与 Opus 4.6(思考模式)仍有差距。
- 世界知识:大幅领先其他开源模型,仅稍逊于 Gemini-Pro-3.1。
- 推理性能:在数学、STEM 及竞赛代码测评中超越所有已公开评测的开源模型。
- DeepSeek-V4-Flash:经济版,追求更小更快。参数量 284B,激活参数 13B,上下文长度 1M。
- 性能表现:推理能力接近 Pro 版本,世界知识储备稍逊。在简单 Agent 任务上与 Pro 旗鼓相当,但在高难度任务上存在差距。
2. 技术突破:百万上下文标配
- 背景:此前 1M 上下文多为闭源模型(如 Gemini)独占或高昂成本功能,开源领域罕见。
- 实现方案:V4 开创了一种全新的注意力机制,在 token 维度进行压缩,并结合 DSA 稀疏注意力(Sparse Attention)技术。
- 效果:相比传统方法,大幅降低了对计算资源和显存的需求,使 1M 上下文成为所有官方服务的标配且支持开源。
3. 生态适配与 API 更新
- Agent 优化:针对 Claude Code、OpenClaw、OpenCode、CodeBuddy 等主流 Agent 产品进行了适配和优化,提升了代码任务和文档生成任务的表现。
- 接口兼容:支持 OpenAI ChatCompletions 接口和 Anthropic 接口两套标准。
- 调用方式:保持
base_url不变,将model参数修改为deepseek-v4-pro或deepseek-v4-flash。
- 调用方式:保持
- 模式支持:两版本均支持非思考模式和思考模式。思考模式下可通过
reasoning_effort参数调整强度(high/max),官方建议复杂 Agent 场景使用 max。
4. 算力战略与旧模型迁移
- 国产算力:明确规划下半年批量上量华为算力。
- 旧模型下架:
deepseek-chat和deepseek-reasoner将在 2026 年 7 月 24 日 停用。- 过渡期内,这两个名称分别指向 V4-Flash 的非思考和思考模式。
- 个人开发者仅需修改 model 参数;生产环境需在未来三个月内完成迁移。
值得关注
- 发布策略:此次发布未进行直播或访谈,直接同步开源并上线服务,体现了“率道而行”的策略风格。
- 资源链接:
