DeepSeek-V4 Preview 正式开源发布

4/24/2026
DeepSeek正式发布DeepSeek-V4 Preview,并宣布该系列已经开源。此次发布包含两款模型:DeepSeek-V4-Pro和DeepSeek-V4-Flash。根据官方信息,DeepSeek-V4-Pro拥有1.6T总参数,其中49B为激活参数;DeepSeek-V4-Flash拥有284B总参数,其中13B为激活参数。两款模型都支持100万Token上下文长度。 这次发布的核心之一,是DeepSeek将100万Token上下文作为官方服务中的标准能力。官方表示,1M上下文现在已经成为所有DeepSeek官方服务的默认配置。这意味着模型可以处理更长的文档、更大的跨文档分析任务、更复杂的代理式工作流以及需要长时间保持上下文的任务。在技术报告中,DeepSeek将这种长上下文效率归因于混合注意力架构,其中包括Compressed Sparse Attention和Heavily Compressed Attention,并结合了其他架构和优化升级。 DeepSeek-V4-Pro和DeepSeek-V4-Flash面向不同使用场景。DeepSeek-V4-Pro作为能力更强的版本,通过Expert Mode提供;DeepSeek-V4-Flash则通过Instant Mode提供,被定位为更快速、更高效、更经济的选择。两款模型均开源,均提供API服务,也都可以通过Web或App使用。DeepSeek表示,用户现在可以在chat.deepseek.com体验,API也已经更新开放,开放权重则可通过Hugging Face合集获取。 在性能展示中,DeepSeek重点呈现了知识、推理和代理能力相关指标。官方公布的结果显示,DeepSeek-V4-Pro-Max在SimpleQA Verified中取得57.9,在HLE中为37.7,在Apex Shortlist中为90.2,在Codeforces中为3206,在SWE Verified中为80.6,在Terminal Bench 2.0中为67.9,在Toolathlon中为51.8。相关对比还包括Claude Opus 4.6、GPT-5.4和Gemini 3.1 Pro等模型。DeepSeek称,V4-Pro在代理式编程、世界知识和推理任务中展现了强劲表现。 DeepSeek-V4-Flash则是该系列中更轻量的选择。官方表示,它的推理能力接近V4-Pro,在简单代理任务上与V4-Pro表现相近,同时由于参数规模更小,响应速度更快,API价格也更具成本优势。公开价格表显示,deepseek-v4-pro的cache hit输入价格为0.145美元,cache miss输入价格为1.74美元,输出价格为3.48美元。deepseek-v4-flash对应价格分别为0.028美元、0.14美元和0.28美元。 在开发者接入方面,DeepSeek表示用户可以保持base_url不变,只需将模型名称更新为deepseek-v4-pro或deepseek-v4-flash。两款模型均支持OpenAI ChatCompletions和Anthropic API,也都支持Thinking与Non-Thinking双模式。官方同时提醒,deepseek-chat和deepseek-reasoner将在2026年7月24日15:59 UTC之后完全退役并无法访问。目前,这两个模型会路由到deepseek-v4-flash的non-thinking或thinking模式。 DeepSeek还强调了V4系列在代理工具中的集成情况。官方表示,DeepSeek-V4已经与Claude Code、OpenClaw和OpenCode等AI代理工具集成,并已经用于DeepSeek内部的代理式编程流程。发布内容中还展示了一个由DeepSeek-V4-Pro生成的PDF样例,用作实际输出能力的示例。 在公告结尾,DeepSeek提醒用户只应依赖官方账号获取DeepSeek相关消息,并表示其他渠道的声明不代表公司观点。官方将DeepSeek-V4 Preview的发布放在其长期AGI目标之下,并把高性价比的100万Token上下文能力作为此次更新的核心变化之一。