DeepSeek-V4 Preview Llega Como Código Abierto

4/24/2026
DeepSeek anunció el lanzamiento oficial y la publicación en código abierto de DeepSeek-V4 Preview, una nueva serie formada por dos modelos: DeepSeek-V4-Pro y DeepSeek-V4-Flash. Según la compañía, DeepSeek-V4-Pro cuenta con 1,6 billones de parámetros totales y 49 mil millones de parámetros activos. DeepSeek-V4-Flash, por su parte, tiene 284 mil millones de parámetros totales y 13 mil millones de parámetros activos. Los dos modelos admiten una longitud de contexto de 1 millón de tokens. El eje principal del anuncio es la eficiencia en contextos largos. DeepSeek afirma que el contexto de 1M ya es el estándar en todos sus servicios oficiales, lo que abre un espacio de trabajo más amplio para documentos extensos, análisis entre múltiples archivos, flujos agentic y tareas que requieren continuidad durante muchas etapas. En el informe técnico, la compañía vincula esta capacidad con una arquitectura de atención híbrida que combina Compressed Sparse Attention y Heavily Compressed Attention, además de otras mejoras de arquitectura y optimización. La serie se divide en dos perfiles de uso. DeepSeek-V4-Pro se presenta como la opción orientada a mayor rendimiento y está disponible mediante Expert Mode. DeepSeek-V4-Flash aparece como la alternativa rápida, eficiente y económica a través de Instant Mode. Ambos modelos son de código abierto, ofrecen servicio por API y están disponibles para uso en web o aplicación. La compañía indica que ya pueden probarse en chat.deepseek.com, que la API está actualizada y que los pesos abiertos están disponibles en su colección de Hugging Face. En las pruebas compartidas, DeepSeek concentra el mensaje en conocimiento, razonamiento y capacidades agentic. DeepSeek-V4-Pro-Max registró 57,9 en SimpleQA Verified, 37,7 en HLE, 90,2 en Apex Shortlist, 3206 en Codeforces, 80,6 en SWE Verified, 67,9 en Terminal Bench 2.0 y 51,8 en Toolathlon. La misma comparación incluye modelos como Claude Opus 4.6, GPT-5.4 y Gemini 3.1 Pro. DeepSeek describe V4-Pro como un modelo abierto con resultados sólidos en programación agentic, conocimiento general y razonamiento. DeepSeek-V4-Flash se presenta como la opción más ligera de la familia. La compañía sostiene que sus capacidades de razonamiento se acercan a las de V4-Pro y que en tareas agentic simples puede rendir de forma similar. Al mismo tiempo, su menor tamaño activo permite respuestas más rápidas y un coste de API más bajo. La tabla de precios publicada sitúa deepseek-v4-pro en 0,145 dólares para entrada con cache hit, 1,74 dólares para entrada con cache miss y 3,48 dólares para salida. Para deepseek-v4-flash, los valores son 0,028 dólares, 0,14 dólares y 0,28 dólares, respectivamente. Para desarrolladores, DeepSeek explica que no es necesario cambiar el base_url: basta con actualizar el nombre del modelo a deepseek-v4-pro o deepseek-v4-flash. Los dos modelos admiten OpenAI ChatCompletions y Anthropic APIs, además de los modos Thinking y Non-Thinking. La compañía también advierte que deepseek-chat y deepseek-reasoner serán retirados por completo y dejarán de estar disponibles después del 24 de julio de 2026 a las 15:59 UTC. Actualmente, esos modelos redirigen a deepseek-v4-flash en modo thinking o non-thinking. El anuncio también destaca la integración con agentes de IA. DeepSeek afirma que V4 está integrado con herramientas como Claude Code, OpenClaw y OpenCode, y que ya impulsa su propia programación agentic interna. Además, la publicación incluye un ejemplo de PDF generado por DeepSeek-V4-Pro como muestra de salida en una tarea práctica. DeepSeek cierra el comunicado con una advertencia sobre las fuentes de información. La compañía pide confiar únicamente en sus cuentas oficiales para noticias sobre DeepSeek y aclara que las declaraciones de otros canales no reflejan sus posiciones. La empresa sitúa el lanzamiento de DeepSeek-V4 Preview dentro de su trabajo de largo plazo hacia AGI, con el contexto de 1 millón de tokens y el coste eficiente como puntos centrales de esta actualización.