DeepSeek V4 发布:主动承认差距,以百万上下文与低价重构行业逻辑
DeepSeek 正式推出 V4 模型,在技术报告中首次公开承认其能力落后于 GPT-5.4 和 Gemini-3.1-Pro 约 3 至 6 个月。该版本核心突破在于全系标配百万 token 超长上下文处理能力,并将定价压低至竞品的三分之一左右。实测显示其在长文本分析、代码调试及复杂商业推理场景表现稳定,同时明确支持华为昇腾芯片,释放构建非英伟达算力生态的战略信号。
事件概述
DeepSeek 未举办发布会直接上线 V4 模型,并在技术报告中罕见地主动划出差距,声明其能力水平仍落后于 GPT-5.4 和 Gemini-3.1-Pro,发展轨迹滞后前沿闭源模型约 3 至 6 个月。这一“认输”姿态并非示弱,而是确立了 V4 的核心战略:不追求在绝对性能上对标顶级闭源模型,转而将百万 token 超长上下文变为全系标配,并将价格大幅下调至竞品水平的三分之一以下。
核心信息
1. 架构与模式升级
V4 分为 Pro(旗舰版)和 Flash(轻量版)两个版本,均支持百万 token 上下文(约 75 万汉字),无需额外付费或升级套餐。该技术基于 CSA(压缩稀疏注意力)与 HCA(重度压缩注意力)的混合架构,处理同等内容仅需前代模型四分之一的算力和十分之一的显存。
模型提供三档推理强度,由用户选择或系统自动判断:
- Non-think(直出模式):适合简单问答,速度最快。
- Think High(常规深度思考):适合需要分析计算的场景。
- Think Max(极致推理):适合极难推理任务,耗时较长且消耗双倍 token。
2. 激进定价策略
V4 延续了 DeepSeek 的低成本路线,具体定价如下(每百万 token):
- V4-Pro:输入 1 元(缓存命中)/ 12 元(缓存未命中),输出 24 元。
- V4-Flash:输入 0.2 元(缓存命中)/ 1 元(缓存未命中),输出 2 元。
此外,V4 兼容 OpenAI 和 Anthropic 两种 API 接口格式,开发者迁移成本几乎为零。
3. 实测表现
针对高频场景的实测结果显示:
- 长文本处理:在处理某上市公司 324 页年报时,V4 能在 19 秒内准确提炼核心要点,并精准定位分散在文档深处的具体数据(如回购股份数量、管理人员酬金等),跨章节关联清晰,无信息遗漏。
- 代码生成与调试:在包含隐藏 Bug 的 Python 代码测试中,开启深度思考模式能识别出超出预设范围的 6 项错误;关闭深度思考模式也能快速给出核心修复方案,满足日常调试需求。
- 复杂推理:在护肤品公司经营困境分析中,V4 展现了清晰的逻辑链条,能按紧迫程度排序风险(如库存积压、现金流断裂等),并能基于上一轮对话背景进行连续追问,推导出新的潜在风险。
值得关注
硬件适配与生态信号
V4 技术报告首次将华为昇腾与英伟达 GPU 并列写入硬件验证清单。V4 选用的 FP4 精度格式恰好是华为昇腾 950 芯片原生支持的精度。官方表示,待下半年昇腾 950 超节点批量上市后,V4-Pro 的价格将进一步下调。
在英伟达出口管制持续收紧的背景下,DeepSeek 公开背书昇腾芯片,释放出构建不依赖英伟达算力通道的强烈信号。若该路径跑通,将改变国内 AI 生态对单一硬件供应链的依赖,影响算力的定价权与供给稳定性。
行业影响
通过开源策略与极低定价,V4 正在拉低顶级推理能力的门槛。对于中小开发者和普通用户,这意味着以前因高昂成本而无法实现的功能现在变得可行;对于大厂而言,高性能开源模型的普及将持续压缩闭源模型的溢价空间,可能动摇整个行业的定价逻辑。
