Alibabas Qwen3.6-27B påstår sig slå 807 GB-föregångaren på kodning
Alibabas Qwen-team lanserade den 22 april 2026 modellen Qwen3.6-27B, en tät modell med 27 miljarder parametrar som enligt tillverkaren överträffar föregångaren Qwen3.5-397B-A17B på samtliga stora kodningsbenchmarks.
Jämförelsen är anmärkningsvärd i storlek: Qwen3.5-397B-A17B tar upp 807 GB på Hugging Face, medan Qwen3.6-27B väger 55,6 GB — en reduktion med faktor 14. Modellen finns även som GGUF-kvantisering via Unsloth, där Q4_K_M-varianten krymper ned till 16,8 GB och kan köras lokalt med llama-server. Det gör den tillgänglig för enskilda utvecklare utan tillgång till storskalig molninfrastruktur.
Releasen sker i ett bredare sammanhang där gapet mellan öppna och slutna modeller snabbt minskar. Moonshot AI:s Kimi K2.6 uppmärksammas parallellt som ett ledande öppet alternativ och uppges nu ha nått samma prestandanivå som Anthropics Claude Opus 4.6. Analytiker noterar att de faktorer som avgör benchmarkresultat är komplexa, men trenden mot mer kapabla och kompakta öppna modeller är tydlig.
Qwen3.6-27B beskriver sig själv som en modell med "flagship-level agentic coding performance" — ett påstående som teknikkommunikationen på Hacker News och Simon Willisons blogg redan börjat granska praktiskt.
Källor
- Qwen3.6-27B: Flagship-Level Coding in a 27B Dense Model — Simon Willison
- Moonshot Kimi K2.6: the world's leading Open Model refreshes to catch up to Opus 4.6 — Latent Space
- Reading today's open-closed performance gap — Interconnects