Qwen3.6-35B-A3B Ya Está Disponible Como Código Abierto

4/17/2026
Qwen anunció la liberación en código abierto de Qwen3.6-35B-A3B, ampliando la familia Qwen3.6 después del lanzamiento de Qwen3.6-Plus. Según la compañía, se trata de un modelo mixture-of-experts de tipo disperso con 35 mil millones de parámetros totales, pero solo 3 mil millones de parámetros activos en ejecución. En el comunicado, Qwen presenta esa eficiencia como uno de los ejes principales del lanzamiento y sostiene que, pese a su tamaño activo reducido, el modelo ofrece un rendimiento destacado en programación agentic. Qwen3.6-35B-A3B ya está disponible en Qwen Studio, se libera con pesos abiertos para la comunidad y puede descargarse desde Hugging Face y ModelScope. Además, la compañía indica que el acceso por Alibaba Cloud Model Studio API como Qwen3.6-Flash llegará próximamente. La programación agentic ocupa el centro del anuncio. Qwen afirma que el modelo supera con amplitud a su predecesor directo, Qwen3.5-35B-A3B, y que también compite con modelos densos mucho más grandes, como Qwen3.5-27B y Gemma4-31B. Los gráficos compartidos con el lanzamiento muestran a Qwen3.6-35B-A3B con 73.4 en SWE-bench Verified, 67.2 en SWE-bench Multilingual, 49.5 en SWE-bench Pro y 51.5 en Terminal-Bench 2.0. En el mismo conjunto de resultados aparecen 52.6 en QwenClawBench, 29.4 en NL2Repo, 37.0 en MCPMark y una puntuación Elo de 1397 en QwenWebBench. La publicación también incluye resultados más amplios en agentes, como 67.2 en TAU3-Bench, 62.8 en MCP-Atlas y 60.1 en WideSearch. Más allá del código, la empresa presenta Qwen3.6-35B-A3B como un modelo más versátil, que mantiene tanto modos multimodal thinking como non-thinking. En las tablas de lenguaje y razonamiento compartidas en el anuncio, el modelo alcanza 85.2 en MMLU-Pro, 93.3 en MMLU-Redux, 90.0 en C-Eval y 86.0 en GPQA. En pruebas STEM y de resolución de problemas, los resultados publicados incluyen 80.4 en LiveCodeBench v6, 83.6 en HMMT Feb 26, 78.9 en IMOAnswerBench y 92.7 en AIME26. Con este bloque de métricas, Qwen intenta mostrar que el modelo no se limita a tareas de código, aunque la narrativa principal del lanzamiento siga centrada en el trabajo agentic para desarrolladores. La multimodalidad es el otro gran frente del anuncio. Qwen sostiene que la serie Qwen3.6 es multimodal de forma nativa y que Qwen3.6-35B-A3B muestra capacidades de percepción y razonamiento multimodal muy por encima de lo que su tamaño haría pensar. El texto oficial afirma que, en la mayoría de los benchmarks de visión y lenguaje, el modelo iguala a Claude Sonnet 4.5 e incluso lo supera en varias tareas. Los resultados publicados muestran 81.7 en MMMU, 75.3 en MMMU-Pro, 85.3 en RealWorldQA, 92.8 en MMBench EN-DEV v1.1, 89.9 en OmniDocBench1.5, 81.9 en CC-OCR y 92.7 en AI2D_TEST. Qwen pone un énfasis especial en la inteligencia espacial, donde el modelo registra 92.0 en RefCOCO y 50.8 en ODInW13. El mismo paquete de pruebas incluye además métricas de vídeo, con 86.6 en VideoMME, 83.7 en VideoMMMU y 86.2 en MLVU. En conjunto, el lanzamiento posiciona a Qwen3.6-35B-A3B como una propuesta abierta enfocada en programación agentic, comprensión multimodal y eficiencia de inferencia. La compañía insiste en lo que el modelo puede ofrecer con solo unos 3 mil millones de parámetros activos, mientras utiliza el bloque de benchmarks para mostrar que también aspira a cubrir razonamiento, comprensión documental, tareas visuales y flujos de trabajo más amplios basados en agentes.