这次发布的核心之一,是DeepSeek将100万Token上下文作为官方服务中的标准能力。官方表示,1M上下文现在已经成为所有DeepSeek官方服务的默认配置。这意味着模型可以处理更长的文档、更大的跨文档分析任务、更复杂的代理式工作流以及需要长时间保持上下文的任务。在技术报告中,DeepSeek将这种长上下文效率归因于混合注意力架构,其中包括Compressed Sparse Attention和Heavily Compressed Attention,并结合了其他架构和优化升级。🚀 DeepSeek-V4 Preview is officially live & open-sourced! Welcome to the era of cost-effective 1M context length.
— DeepSeek (@deepseek_ai) 2026年4月24日
🔹 DeepSeek-V4-Pro: 1.6T total / 49B active params. Performance rivaling the world's top closed-source models.
🔹 DeepSeek-V4-Flash: 284B total / 13B active params.… pic.twitter.com/n1AgwMIymu
DeepSeek-V4-Pro和DeepSeek-V4-Flash面向不同使用场景。DeepSeek-V4-Pro作为能力更强的版本,通过Expert Mode提供;DeepSeek-V4-Flash则通过Instant Mode提供,被定位为更快速、更高效、更经济的选择。两款模型均开源,均提供API服务,也都可以通过Web或App使用。DeepSeek表示,用户现在可以在chat.deepseek.com体验,API也已经更新开放,开放权重则可通过Hugging Face合集获取。DeepSeek-V4-Pro
— DeepSeek (@deepseek_ai) 2026年4月24日
🔹 Enhanced Agentic Capabilities: Open-source SOTA in Agentic Coding benchmarks.
🔹 Rich World Knowledge: Leads all current open models, trailing only Gemini-3.1-Pro.
🔹 World-Class Reasoning: Beats all current open models in Math/STEM/Coding, rivaling top… pic.twitter.com/D04x5RjE3L
在性能展示中,DeepSeek重点呈现了知识、推理和代理能力相关指标。官方公布的结果显示,DeepSeek-V4-Pro-Max在SimpleQA Verified中取得57.9,在HLE中为37.7,在Apex Shortlist中为90.2,在Codeforces中为3206,在SWE Verified中为80.6,在Terminal Bench 2.0中为67.9,在Toolathlon中为51.8。相关对比还包括Claude Opus 4.6、GPT-5.4和Gemini 3.1 Pro等模型。DeepSeek称,V4-Pro在代理式编程、世界知识和推理任务中展现了强劲表现。DeepSeek-V4-Flash
— DeepSeek (@deepseek_ai) 2026年4月24日
🔹 Reasoning capabilities closely approach V4-Pro.
🔹 Performs on par with V4-Pro on simple Agent tasks.
🔹 Smaller parameter size, faster response times, and highly cost-effective API pricing.
3/n pic.twitter.com/dAkP1f2aX0
DeepSeek-V4-Flash则是该系列中更轻量的选择。官方表示,它的推理能力接近V4-Pro,在简单代理任务上与V4-Pro表现相近,同时由于参数规模更小,响应速度更快,API价格也更具成本优势。公开价格表显示,deepseek-v4-pro的cache hit输入价格为0.145美元,cache miss输入价格为1.74美元,输出价格为3.48美元。deepseek-v4-flash对应价格分别为0.028美元、0.14美元和0.28美元。Structural Innovation & Ultra-High Context Efficiency
— DeepSeek (@deepseek_ai) 2026年4月24日
🔹 Novel Attention: Token-wise compression + DSA (DeepSeek Sparse Attention).
🔹 Peak Efficiency: World-leading long context with drastically reduced compute & memory costs.
🔹 1M Standard: 1M context is now the default… pic.twitter.com/7EqOQYfWBH
在开发者接入方面,DeepSeek表示用户可以保持base_url不变,只需将模型名称更新为deepseek-v4-pro或deepseek-v4-flash。两款模型均支持OpenAI ChatCompletions和Anthropic API,也都支持Thinking与Non-Thinking双模式。官方同时提醒,deepseek-chat和deepseek-reasoner将在2026年7月24日15:59 UTC之后完全退役并无法访问。目前,这两个模型会路由到deepseek-v4-flash的non-thinking或thinking模式。Dedicated Optimizations for Agent Capabilities
— DeepSeek (@deepseek_ai) 2026年4月24日
🔹 DeepSeek-V4 is seamlessly integrated with leading AI agents like Claude Code, OpenClaw & OpenCode.
🔹 Already driving our in-house agentic coding at DeepSeek.
The figure below showcases a sample PDF generated by DeepSeek-V4-Pro.… pic.twitter.com/bmMp2t3aQF
DeepSeek还强调了V4系列在代理工具中的集成情况。官方表示,DeepSeek-V4已经与Claude Code、OpenClaw和OpenCode等AI代理工具集成,并已经用于DeepSeek内部的代理式编程流程。发布内容中还展示了一个由DeepSeek-V4-Pro生成的PDF样例,用作实际输出能力的示例。API is Available Today!
— DeepSeek (@deepseek_ai) 2026年4月24日
🔹 Keep base_url, just update model to deepseek-v4-pro or deepseek-v4-flash.
🔹 Supports OpenAI ChatCompletions & Anthropic APIs.
🔹 Both models support 1M context & dual modes (Thinking / Non-Thinking): https://t.co/ec3B0BDXZi
⚠️ Note: deepseek-chat &… pic.twitter.com/xjOpRzOMAT
在公告结尾,DeepSeek提醒用户只应依赖官方账号获取DeepSeek相关消息,并表示其他渠道的声明不代表公司观点。官方将DeepSeek-V4 Preview的发布放在其长期AGI目标之下,并把高性价比的100万Token上下文能力作为此次更新的核心变化之一。🔹 Amid recent attention, a quick reminder: please rely only on our official accounts for DeepSeek news. Statements from other channels do not reflect our views.
— DeepSeek (@deepseek_ai) 2026年4月24日
🔹 Thank you for your continued trust. We remain committed to longtermism, advancing steadily toward our ultimate goal…