PPIO率先上线DeepSeek-V4预览版,1M超长上下文能力即刻可用

2026/04/24 17:10阅读量 2

DeepSeek-V4预览版正式开源,包含Pro和Flash两个版本,具备百万级超长上下文及优化的Agent能力。全栈式AI云服务商PPIO成为首批上线该模型的云平台之一,提供开箱即用的服务体验。V4系列通过稀疏注意力机制大幅降低推理成本,在数学、STEM及代码任务上表现领先。

事件概述

DeepSeek-V4预览版已正式发布并开源,中国全栈式AI云服务商PPIO迅速完成部署,成为业内首批上线该模型的平台之一。此次上线旨在为开发者和企业提供百万超长上下文处理、顶尖Agent能力及高效推理性能的一站式服务。

核心信息

模型架构与性能突破

  • 长上下文能力:DeepSeek-V4采用全新的注意力机制结合DSA稀疏注意力(DeepSeek Sparse Attention),实现全球领先的1M token上下文支持。相比传统方法,显著降低计算和显存需求。
  • 效率提升数据
    • V4-Pro:在1M token场景下,单token推理FLOPs仅为前代DeepSeek-V3.2的27%,KV缓存占用降至10%。
    • V4-Flash:单token推理FLOPs低至前代的10%,KV缓存占用降至7%。
  • Agent能力优化:针对Claude Code、OpenClaw、OpenCode等主流Agent产品进行了专项优化,在代码任务和文档生成方面表现显著提升。

版本规格对比

版本总参数激活参数定位与特点
DeepSeek-V4-Pro1.6T49B旗舰版。性能比肩国际顶级闭源模型,Agentic Coding达到开源最佳水平,体验优于Sonnet 4.5,交付质量接近Opus 4.6非思考模式,在数学、STEM、竞赛代码场景全面领跑。
DeepSeek-V4-Flash284B13B经济版。拥有与Pro版接近的推理能力,提供更快捷、更低成本的替代方案。

值得关注

  • 接入方式:开发者可通过PPIO官网注册,无需复杂部署即可直接在线试用,体验百万上下文长文本处理与AI编程效率革新。
  • 平台优势:PPIO凭借分布式算力调度与自研推理加速引擎,实现了模型推理10倍+的成本降低,致力于解决模型推理性能与成本的矛盾,推动AI开源生态从“可用”向“好用”演进。

准备好启动您的定制项目了吗?

现在咨询,即可获得免费的业务梳理与技术架构建议方案。