Qwen3.6-35B-A3B Artık Açık Kaynak

17.04.2026
Qwen, Qwen3.6-Plus lansmanının ardından Qwen3.6-35B-A3B modelini açık kaynak olarak yayımladığını duyurdu. Şirketin tanımına göre bu model, 35 milyar toplam parametreye sahip ancak çalışma sırasında yalnızca 3 milyar aktif parametre kullanan seyrek bir mixture-of-experts yapısı üzerine kurulu. Buna rağmen Qwen, modelin özellikle ajan tabanlı kodlama tarafında güçlü bir performans sunduğunu ve kendi ölçeğinin ötesinde sonuçlar verdiğini vurguluyor. Model şu anda Qwen Studio üzerinde kullanılabiliyor; ayrıca açık ağırlıklarla topluluğa sunuluyor. Şirket, Hugging Face ve ModelScope üzerinden indirilebildiğini, Alibaba Cloud Model Studio API tarafında ise Qwen3.6-Flash olarak erişimin yakında geleceğini belirtiyor. Duyurunun merkezinde verimlilik ile performansın birlikte öne çıkarılması var. Qwen, yalnızca 3 milyar aktif parametreyle çalışan bu modelin, bazı kritik kodlama testlerinde 27 milyar parametreli yoğun Qwen3.5-27B’yi geçtiğini ve doğrudan selefi Qwen3.5-35B-A3B’ye karşı belirgin fark yarattığını söylüyor. Paylaşılan karşılaştırmalarda Qwen3.6-35B-A3B, SWE-bench Verified’da 73.4, SWE-bench Multilingual’da 67.2, SWE-bench Pro’da 49.5 ve Terminal-Bench 2.0’da 51.5 skor elde etti. Aynı görsellerde modelin QwenWebBench’te 1397 Elo’ya, NL2Repo’da 29.4’e, MCPMark’ta ise 37.0’a ulaştığı görülüyor. QwenClawBench sonucunun 52.6 olarak paylaşılması da, modelin gerçek kullanıcı dağılımına dayalı ajan senaryolarında da öne çıkarıldığını gösteriyor. Şirket, modelin yalnızca kod üretiminde değil, daha geniş bir genel yetenek setinde konumlandığını da vurguluyor. Qwen3.6-35B-A3B’nin hem multimodal thinking hem de non-thinking modlarını desteklediği belirtiliyor. Genel bilgi ve akıl yürütme tarafında açıklanan sonuçlar arasında MMLU-Pro’da 85.2, MMLU-Redux’ta 93.3, C-Eval’de 90.0 ve GPQA’da 86.0 yer alıyor. STEM ve problem çözme tarafında LiveCodeBench v6’da 80.4, HMMT Feb 26’da 83.6 ve AIME26’da 92.7 sonucu paylaşıldı. Bu tablo, modelin yalnızca ajan tabanlı kodlama için değil, daha geniş teknik ve akademik değerlendirmelerde de kullanıldığını ortaya koyuyor. Qwen’in duyurusunda öne çıkan bir başka başlık ise doğal çok modluluk. Şirkete göre Qwen3.6 ailesi yerel olarak multimodal ve Qwen3.6-35B-A3B, boyutunun bekleteceğinden daha güçlü algı ve çok modlu akıl yürütme yetenekleri sergiliyor. Resmi metinde, modelin çoğu vision-language testinde Claude Sonnet 4.5 ile aynı seviyeye geldiği, bazı görevlerde ise onu geçtiği belirtiliyor. Paylaşılan sonuçlar da bu çerçeveyi destekliyor: MMMU’da 81.7, RealWorldQA’da 85.3, OmniDocBench1.5’te 89.9, CC-OCR’da 81.9 ve AI2D_TEST’te 92.7 skorları açıklandı. Mekânsal zekâ tarafında RefCOCO ortalamasında 92.0 ve ODInW13’te 50.8 sonucu özellikle ayrıca vurgulandı. Video anlama ölçümlerinde ise VideoMME’de 86.6, VideoMMMU’da 83.7 ve MLVU’da 86.2 skorları paylaşıldı. Açıklamanın genel tonu, Qwen3.6-35B-A3B’yi açık kaynak ekosisteminde esneklik, verimlilik ve ajan tabanlı kodlama kapasitesini aynı modelde buluşturan bir seçenek olarak konumlandırıyor. Qwen, modelin geliştiricilere yönelik kullanımını özellikle ön plana çıkarırken, çok modlu algı, belge anlama, uzamsal akıl yürütme ve genel değerlendirme sonuçlarıyla modelin yalnızca dar bir kod modeli olarak sunulmadığını da net biçimde gösteriyor.