El eje principal del anuncio es la eficiencia en contextos largos. DeepSeek afirma que el contexto de 1M ya es el estándar en todos sus servicios oficiales, lo que abre un espacio de trabajo más amplio para documentos extensos, análisis entre múltiples archivos, flujos agentic y tareas que requieren continuidad durante muchas etapas. En el informe técnico, la compañía vincula esta capacidad con una arquitectura de atención híbrida que combina Compressed Sparse Attention y Heavily Compressed Attention, además de otras mejoras de arquitectura y optimización.🚀 DeepSeek-V4 Preview is officially live & open-sourced! Welcome to the era of cost-effective 1M context length.
— DeepSeek (@deepseek_ai) 24 de abril de 2026
🔹 DeepSeek-V4-Pro: 1.6T total / 49B active params. Performance rivaling the world's top closed-source models.
🔹 DeepSeek-V4-Flash: 284B total / 13B active params.… pic.twitter.com/n1AgwMIymu
La serie se divide en dos perfiles de uso. DeepSeek-V4-Pro se presenta como la opción orientada a mayor rendimiento y está disponible mediante Expert Mode. DeepSeek-V4-Flash aparece como la alternativa rápida, eficiente y económica a través de Instant Mode. Ambos modelos son de código abierto, ofrecen servicio por API y están disponibles para uso en web o aplicación. La compañía indica que ya pueden probarse en chat.deepseek.com, que la API está actualizada y que los pesos abiertos están disponibles en su colección de Hugging Face.DeepSeek-V4-Pro
— DeepSeek (@deepseek_ai) 24 de abril de 2026
🔹 Enhanced Agentic Capabilities: Open-source SOTA in Agentic Coding benchmarks.
🔹 Rich World Knowledge: Leads all current open models, trailing only Gemini-3.1-Pro.
🔹 World-Class Reasoning: Beats all current open models in Math/STEM/Coding, rivaling top… pic.twitter.com/D04x5RjE3L
En las pruebas compartidas, DeepSeek concentra el mensaje en conocimiento, razonamiento y capacidades agentic. DeepSeek-V4-Pro-Max registró 57,9 en SimpleQA Verified, 37,7 en HLE, 90,2 en Apex Shortlist, 3206 en Codeforces, 80,6 en SWE Verified, 67,9 en Terminal Bench 2.0 y 51,8 en Toolathlon. La misma comparación incluye modelos como Claude Opus 4.6, GPT-5.4 y Gemini 3.1 Pro. DeepSeek describe V4-Pro como un modelo abierto con resultados sólidos en programación agentic, conocimiento general y razonamiento.DeepSeek-V4-Flash
— DeepSeek (@deepseek_ai) 24 de abril de 2026
🔹 Reasoning capabilities closely approach V4-Pro.
🔹 Performs on par with V4-Pro on simple Agent tasks.
🔹 Smaller parameter size, faster response times, and highly cost-effective API pricing.
3/n pic.twitter.com/dAkP1f2aX0
DeepSeek-V4-Flash se presenta como la opción más ligera de la familia. La compañía sostiene que sus capacidades de razonamiento se acercan a las de V4-Pro y que en tareas agentic simples puede rendir de forma similar. Al mismo tiempo, su menor tamaño activo permite respuestas más rápidas y un coste de API más bajo. La tabla de precios publicada sitúa deepseek-v4-pro en 0,145 dólares para entrada con cache hit, 1,74 dólares para entrada con cache miss y 3,48 dólares para salida. Para deepseek-v4-flash, los valores son 0,028 dólares, 0,14 dólares y 0,28 dólares, respectivamente.Structural Innovation & Ultra-High Context Efficiency
— DeepSeek (@deepseek_ai) 24 de abril de 2026
🔹 Novel Attention: Token-wise compression + DSA (DeepSeek Sparse Attention).
🔹 Peak Efficiency: World-leading long context with drastically reduced compute & memory costs.
🔹 1M Standard: 1M context is now the default… pic.twitter.com/7EqOQYfWBH
Para desarrolladores, DeepSeek explica que no es necesario cambiar el base_url: basta con actualizar el nombre del modelo a deepseek-v4-pro o deepseek-v4-flash. Los dos modelos admiten OpenAI ChatCompletions y Anthropic APIs, además de los modos Thinking y Non-Thinking. La compañía también advierte que deepseek-chat y deepseek-reasoner serán retirados por completo y dejarán de estar disponibles después del 24 de julio de 2026 a las 15:59 UTC. Actualmente, esos modelos redirigen a deepseek-v4-flash en modo thinking o non-thinking.Dedicated Optimizations for Agent Capabilities
— DeepSeek (@deepseek_ai) 24 de abril de 2026
🔹 DeepSeek-V4 is seamlessly integrated with leading AI agents like Claude Code, OpenClaw & OpenCode.
🔹 Already driving our in-house agentic coding at DeepSeek.
The figure below showcases a sample PDF generated by DeepSeek-V4-Pro.… pic.twitter.com/bmMp2t3aQF
El anuncio también destaca la integración con agentes de IA. DeepSeek afirma que V4 está integrado con herramientas como Claude Code, OpenClaw y OpenCode, y que ya impulsa su propia programación agentic interna. Además, la publicación incluye un ejemplo de PDF generado por DeepSeek-V4-Pro como muestra de salida en una tarea práctica.API is Available Today!
— DeepSeek (@deepseek_ai) 24 de abril de 2026
🔹 Keep base_url, just update model to deepseek-v4-pro or deepseek-v4-flash.
🔹 Supports OpenAI ChatCompletions & Anthropic APIs.
🔹 Both models support 1M context & dual modes (Thinking / Non-Thinking): https://t.co/ec3B0BDXZi
⚠️ Note: deepseek-chat &… pic.twitter.com/xjOpRzOMAT
DeepSeek cierra el comunicado con una advertencia sobre las fuentes de información. La compañía pide confiar únicamente en sus cuentas oficiales para noticias sobre DeepSeek y aclara que las declaraciones de otros canales no reflejan sus posiciones. La empresa sitúa el lanzamiento de DeepSeek-V4 Preview dentro de su trabajo de largo plazo hacia AGI, con el contexto de 1 millón de tokens y el coste eficiente como puntos centrales de esta actualización.🔹 Amid recent attention, a quick reminder: please rely only on our official accounts for DeepSeek news. Statements from other channels do not reflect our views.
— DeepSeek (@deepseek_ai) 24 de abril de 2026
🔹 Thank you for your continued trust. We remain committed to longtermism, advancing steadily toward our ultimate goal…