DeepSeek’in duyurusunda en fazla öne çıkan noktalardan biri, uzun bağlam desteğinin artık resmi servislerde standart hale gelmesi. Şirket, 1 milyon token bağlam uzunluğunu tüm resmi DeepSeek servislerinde varsayılan olarak sunduğunu belirtiyor. Bu yapı, uzun metinler, geniş doküman kümeleri, ajan tabanlı iş akışları ve çok adımlı görevler için daha geniş bir çalışma alanı sağlamayı amaçlıyor. Teknik raporda DeepSeek-V4 serisinin bu verimliliği, Compressed Sparse Attention ve Heavily Compressed Attention birleşimine dayanan hibrit dikkat mimarisiyle elde ettiği aktarılıyor.🚀 DeepSeek-V4 Preview is officially live & open-sourced! Welcome to the era of cost-effective 1M context length.
— DeepSeek (@deepseek_ai) 24 Nisan 2026
🔹 DeepSeek-V4-Pro: 1.6T total / 49B active params. Performance rivaling the world's top closed-source models.
🔹 DeepSeek-V4-Flash: 284B total / 13B active params.… pic.twitter.com/n1AgwMIymu
Model ailesinin iki üyesi farklı kullanım ihtiyaçlarına göre ayrılmış durumda. DeepSeek-V4-Pro, maksimum performans ve daha ileri akıl yürütme gerektiren görevler için “Expert Mode” üzerinden sunuluyor. DeepSeek-V4-Flash ise “Instant Mode” ile daha hızlı yanıt ve daha düşük maliyet arayan kullanıcıları hedefliyor. Her iki model de açık kaynak, API servisi mevcut ve WEB/APP tarafında kullanılabiliyor. DeepSeek, modellerin açık ağırlıklarını Hugging Face koleksiyonu üzerinden yayımladığını, API’nin de bugünden itibaren güncellendiğini açıkladı.DeepSeek-V4-Pro
— DeepSeek (@deepseek_ai) 24 Nisan 2026
🔹 Enhanced Agentic Capabilities: Open-source SOTA in Agentic Coding benchmarks.
🔹 Rich World Knowledge: Leads all current open models, trailing only Gemini-3.1-Pro.
🔹 World-Class Reasoning: Beats all current open models in Math/STEM/Coding, rivaling top… pic.twitter.com/D04x5RjE3L
Performans tarafında DeepSeek, V4-Pro-Max modunu bilgi, akıl yürütme ve ajan yetenekleri açısından öne çıkarıyor. Paylaşılan benchmarklarda DeepSeek-V4-Pro-Max; SimpleQA Verified’da 57,9, HLE’de 37,7, Apex Shortlist’te 90,2, Codeforces’ta 3206, SWE Verified’da 80,6, Terminal Bench 2.0’da 67,9 ve Toolathlon’da 51,8 sonuçlarına ulaştı. Aynı tabloda Claude Opus 4.6, GPT-5.4 ve Gemini 3.1 Pro karşılaştırmaları da yer alıyor. DeepSeek, V4-Pro’nun ajan tabanlı kodlama benchmarklarında açık kaynak modeller arasında güçlü sonuçlar verdiğini, bilgi ve akıl yürütme tarafında ise mevcut açık modellerin önünde konumlandığını ifade ediyor.DeepSeek-V4-Flash
— DeepSeek (@deepseek_ai) 24 Nisan 2026
🔹 Reasoning capabilities closely approach V4-Pro.
🔹 Performs on par with V4-Pro on simple Agent tasks.
🔹 Smaller parameter size, faster response times, and highly cost-effective API pricing.
3/n pic.twitter.com/dAkP1f2aX0
DeepSeek-V4-Flash ise daha küçük aktif parametre sayısına rağmen V4-Pro’ya yakın akıl yürütme sonuçlarıyla tanıtılıyor. Şirket, Flash modelinin basit ajan görevlerinde Pro’ya yakın performans sunduğunu, daha küçük parametre yapısı sayesinde daha hızlı yanıt verdiğini ve API fiyatlandırmasında daha ekonomik bir seçenek olduğunu belirtiyor. Açıklanan API fiyatlarına göre deepseek-v4-pro için cache hit giriş maliyeti 0,145 dolar, cache miss giriş maliyeti 1,74 dolar ve çıkış maliyeti 3,48 dolar olarak verildi. deepseek-v4-flash için ise bu değerler sırasıyla 0,028 dolar, 0,14 dolar ve 0,28 dolar.Structural Innovation & Ultra-High Context Efficiency
— DeepSeek (@deepseek_ai) 24 Nisan 2026
🔹 Novel Attention: Token-wise compression + DSA (DeepSeek Sparse Attention).
🔹 Peak Efficiency: World-leading long context with drastically reduced compute & memory costs.
🔹 1M Standard: 1M context is now the default… pic.twitter.com/7EqOQYfWBH
API tarafında kullanıcıların base_url değerini koruyarak model adını deepseek-v4-pro veya deepseek-v4-flash olarak güncellemesi yeterli olacak. DeepSeek, iki modelin de OpenAI ChatCompletions ve Anthropic API’lerini desteklediğini, ayrıca Thinking ve Non-Thinking modlarıyla kullanılabildiğini açıkladı. Şirket ayrıca deepseek-chat ve deepseek-reasoner modellerinin 24 Temmuz 2026 saat 15:59 UTC’den sonra tamamen emekli edileceğini ve erişilemez hale geleceğini belirtti. Mevcut durumda bu modeller, deepseek-v4-flash’in thinking veya non-thinking modlarına yönlendiriliyor.Dedicated Optimizations for Agent Capabilities
— DeepSeek (@deepseek_ai) 24 Nisan 2026
🔹 DeepSeek-V4 is seamlessly integrated with leading AI agents like Claude Code, OpenClaw & OpenCode.
🔹 Already driving our in-house agentic coding at DeepSeek.
The figure below showcases a sample PDF generated by DeepSeek-V4-Pro.… pic.twitter.com/bmMp2t3aQF
DeepSeek, duyurunun sonunda kullanıcıları resmi DeepSeek hesapları dışındaki açıklamalara karşı dikkatli olmaya çağırdı. Şirket, DeepSeek haberleri için yalnızca resmi kanalların esas alınması gerektiğini vurgularken, uzun vadeli yaklaşımını sürdürdüğünü ve nihai hedefi olan AGI yolunda ilerlemeye devam ettiğini belirtti.API is Available Today!
— DeepSeek (@deepseek_ai) 24 Nisan 2026
🔹 Keep base_url, just update model to deepseek-v4-pro or deepseek-v4-flash.
🔹 Supports OpenAI ChatCompletions & Anthropic APIs.
🔹 Both models support 1M context & dual modes (Thinking / Non-Thinking): https://t.co/ec3B0BDXZi
⚠️ Note: deepseek-chat &… pic.twitter.com/xjOpRzOMAT
🔹 Amid recent attention, a quick reminder: please rely only on our official accounts for DeepSeek news. Statements from other channels do not reflect our views.
— DeepSeek (@deepseek_ai) 24 Nisan 2026
🔹 Thank you for your continued trust. We remain committed to longtermism, advancing steadily toward our ultimate goal…