Nyhet· Niklas

DeepSeek V4-Pro: 1,6 biljoner parametrar gör den till världens största öppna AI-modell

DeepSeek har släppt en förhandsversion av sin nästa generations flaggskeppsmodell V4 i form av två varianter: DeepSeek-V4-Pro och DeepSeek-V4-Flash. Båda är MIT-licensierade Mixture-of-Experts-modeller med ett kontextfönster på 1 miljon tokens.

V4-Pro har 1,6 biljoner totala parametrar varav 49 miljarder är aktiva åt gången, vilket enligt Simon Willison gör den till den hittills största öppen-vikts-modellen – större än Kimi K2.6 (1,1T) och mer än dubbelt så stor som DeepSeek V3.2 (685B). Modellen upptar 865 GB på Hugging Face. Flash-varianten är mer kompakt med 284 miljarder totala och 13 miljarder aktiva parametrar, och väger in på 160 GB.

DeepSeek betonar kraftiga förbättringar inom kodning, en förmåga som blivit central för AI-agenter och som driver verktyg som ChatGPT Codex och Claude Code. Bolaget lyfter även fram explicit kompatibilitet med kinesiska Huawei-chip, vilket markerar en milstolpe för Kinas inhemska chipindustri.

Enligt TechCrunch hävdar DeepSeek att V4 nästan har "stängt gapet" mot ledande slutna modeller på reasoning-benchmarks, och MIT Tech Review konstaterar att modellen konkurrerar med system från Anthropic, Google och OpenAI.