Duyurunun merkezinde verimlilik ile performansın birlikte öne çıkarılması var. Qwen, yalnızca 3 milyar aktif parametreyle çalışan bu modelin, bazı kritik kodlama testlerinde 27 milyar parametreli yoğun Qwen3.5-27B’yi geçtiğini ve doğrudan selefi Qwen3.5-35B-A3B’ye karşı belirgin fark yarattığını söylüyor. Paylaşılan karşılaştırmalarda Qwen3.6-35B-A3B, SWE-bench Verified’da 73.4, SWE-bench Multilingual’da 67.2, SWE-bench Pro’da 49.5 ve Terminal-Bench 2.0’da 51.5 skor elde etti. Aynı görsellerde modelin QwenWebBench’te 1397 Elo’ya, NL2Repo’da 29.4’e, MCPMark’ta ise 37.0’a ulaştığı görülüyor. QwenClawBench sonucunun 52.6 olarak paylaşılması da, modelin gerçek kullanıcı dağılımına dayalı ajan senaryolarında da öne çıkarıldığını gösteriyor.⚡ Meet Qwen3.6-35B-A3B:Now Open-Source!🚀🚀
— Qwen (@Alibaba_Qwen) 16 Nisan 2026
A sparse MoE model, 35B total params, 3B active. Apache 2.0 license.
🔥 Agentic coding on par with models 10x its active size
📷 Strong multimodal perception and reasoning ability
🧠 Multimodal thinking + non-thinking modes… pic.twitter.com/UMiChPaLid
Şirket, modelin yalnızca kod üretiminde değil, daha geniş bir genel yetenek setinde konumlandığını da vurguluyor. Qwen3.6-35B-A3B’nin hem multimodal thinking hem de non-thinking modlarını desteklediği belirtiliyor. Genel bilgi ve akıl yürütme tarafında açıklanan sonuçlar arasında MMLU-Pro’da 85.2, MMLU-Redux’ta 93.3, C-Eval’de 90.0 ve GPQA’da 86.0 yer alıyor. STEM ve problem çözme tarafında LiveCodeBench v6’da 80.4, HMMT Feb 26’da 83.6 ve AIME26’da 92.7 sonucu paylaşıldı. Bu tablo, modelin yalnızca ajan tabanlı kodlama için değil, daha geniş teknik ve akademik değerlendirmelerde de kullanıldığını ortaya koyuyor.LM Performance:Qwen3.6-35B-A3B outperforms the dense 27B-param Qwen3.5-27B on several key coding benchmarks and dramatically surpasses its direct predecessor Qwen3.5-35B-A3B, especially on agentic coding and reasoning tasks. pic.twitter.com/PyXDNruoy2
— Qwen (@Alibaba_Qwen) 16 Nisan 2026
Qwen’in duyurusunda öne çıkan bir başka başlık ise doğal çok modluluk. Şirkete göre Qwen3.6 ailesi yerel olarak multimodal ve Qwen3.6-35B-A3B, boyutunun bekleteceğinden daha güçlü algı ve çok modlu akıl yürütme yetenekleri sergiliyor. Resmi metinde, modelin çoğu vision-language testinde Claude Sonnet 4.5 ile aynı seviyeye geldiği, bazı görevlerde ise onu geçtiği belirtiliyor. Paylaşılan sonuçlar da bu çerçeveyi destekliyor: MMMU’da 81.7, RealWorldQA’da 85.3, OmniDocBench1.5’te 89.9, CC-OCR’da 81.9 ve AI2D_TEST’te 92.7 skorları açıklandı. Mekânsal zekâ tarafında RefCOCO ortalamasında 92.0 ve ODInW13’te 50.8 sonucu özellikle ayrıca vurgulandı. Video anlama ölçümlerinde ise VideoMME’de 86.6, VideoMMMU’da 83.7 ve MLVU’da 86.2 skorları paylaşıldı. Açıklamanın genel tonu, Qwen3.6-35B-A3B’yi açık kaynak ekosisteminde esneklik, verimlilik ve ajan tabanlı kodlama kapasitesini aynı modelde buluşturan bir seçenek olarak konumlandırıyor. Qwen, modelin geliştiricilere yönelik kullanımını özellikle ön plana çıkarırken, çok modlu algı, belge anlama, uzamsal akıl yürütme ve genel değerlendirme sonuçlarıyla modelin yalnızca dar bir kod modeli olarak sunulmadığını da net biçimde gösteriyor.VLM Performance:Qwen3.6 is natively multimodal, and Qwen3.6-35B-A3B showcases perception and multimodal reasoning capabilities that far exceed what its size would suggest, with only around 3 billion activated parameters. Across most vision-language benchmarks, its performance… pic.twitter.com/nOVBNlVfzW
— Qwen (@Alibaba_Qwen) 16 Nisan 2026