- DeepSeek ने V4 सीरीज़ के पहले preview models के रूप में DeepSeek-V4-Pro और DeepSeek-V4-Flash पेश किए हैं। दोनों मॉडल 10 लाख टोकन context को सपोर्ट करने वाले Mixture of Experts मॉडल हैं और MIT license के तहत उपलब्ध हैं
- DeepSeek-V4-Pro एक ऐसा मॉडल है जिसमें कुल 1.6T parameters और 49B active parameters हैं, और यह Kimi K2.6, GLM-5.1, तथा DeepSeek V3.2 से बड़ा नया सबसे बड़ा open-weight मॉडल दिखता है
- DeepSeek V4 की सबसे बड़ी खासियत इसकी कीमत है। Flash की कीमत 10 लाख input tokens पर $0.14 और output पर $0.28 है, जबकि Pro की कीमत input पर $1.74 और output पर $3.48 है, जो तुलना में छोटे और बड़े दोनों मॉडलों से कम है
- यह कम कीमत लंबे context की efficiency से जुड़ी है। 10 लाख token context पर Pro, DeepSeek-V3.2 के मुकाबले single-token FLOPs को 27% और KV cache को 10% तक घटाता है, जबकि Flash में FLOPs 10% और KV cache 7% तक कम हो जाता है
- DeepSeek के अपने benchmark में DeepSeek-V4-Pro फ्रंटियर मॉडलों से मुकाबला करने लायक दिखता है, लेकिन GPT-5.4 और Gemini-3.1-Pro से थोड़ा पीछे है, और सबसे उन्नत फ्रंटियर मॉडलों की तुलना में लगभग 3~6 महीने पीछे की development trajectory दिखाता है
मॉडल रिलीज़ और बेसिक स्पेसिफिकेशन
- DeepSeek ने 2025 के 12वें महीने के V3.2 aur V3.2 Speciale के बाद V4 सीरीज़ के पहले मॉडल के रूप में DeepSeek-V4-Pro और DeepSeek-V4-Flash नाम के दो preview models जारी किए
- दोनों मॉडल 10 लाख token context को सपोर्ट करने वाले Mixture of Experts मॉडल हैं, और standard MIT license का उपयोग करते हैं
- DeepSeek-V4-Pro में कुल 1.6T parameters और 49B active parameters हैं, जबकि DeepSeek-V4-Flash में कुल 284B parameters और 13B active parameters हैं
- DeepSeek-V4-Pro, Kimi K2.6 के 1.1T, GLM-5.1 के 754B और DeepSeek V3.2 के 685B से बड़ा है, इसलिए यह नया सबसे बड़ा open-weight मॉडल लगता है
- Hugging Face के अनुसार मॉडल का आकार Pro के लिए 865GB और Flash के लिए 160GB है, और हल्का quantized Flash संभवतः 128GB M5 MacBook Pro पर चल सकता है
- अगर Pro मॉडल में केवल ज़रूरी active experts को disk से stream किया जा सके, तो उसके भी उसी मशीन पर चलने की संभावना है
-
OpenRouter के ज़रिए सरल परीक्षण
कीमत, efficiency, और performance positioning
- DeepSeek V4 में सबसे उल्लेखनीय बात इसकी कीमत है। DeepSeek pricing page के अनुसार Flash की कीमत 10 लाख input tokens पर $0.14 और 10 लाख output tokens पर $0.28 है
- Pro की कीमत 10 लाख input tokens पर $1.74 और 10 लाख output tokens पर $3.48 रखी गई है
- तुलना तालिका में DeepSeek V4 Flash, GPT-5.4 Nano के input $0.20·output $1.25 और Gemini 3.1 Flash-Lite के input $0.25·output $1.50 से भी सस्ता है, इसलिए यह छोटे मॉडलों में सबसे सस्ता है
- DeepSeek V4 Pro, Gemini 3.1 Pro के input $2·output $12, GPT-5.4 के input $2.50·output $15, Claude Sonnet 4.6 के input $3·output $15, Claude Opus 4.7 के input $5·output $25, और GPT-5.5 के input $5·output $30 से कम कीमत पर है, इसलिए यह बड़े फ्रंटियर मॉडलों में सबसे सस्ता है
-
efficiency ही कम कीमत की बुनियाद है
- DeepSeek paper के अनुसार इस रिलीज़ में लंबे context prompt की efficiency पर खास ज़ोर दिया गया है
- 10 लाख token context पर DeepSeek-V4-Pro, DeepSeek-V3.2 की तुलना में single-token FLOPs को 27% और KV cache size को 10% तक सीमित रखता है
- इसी स्थिति में DeepSeek-V4-Flash, DeepSeek-V3.2 की तुलना में single-token FLOPs को 10% और KV cache size को 7% तक घटाता है
-
benchmark में फ्रंटियर के करीब, लेकिन शीर्ष स्तर से पीछे
- DeepSeek के self-reported benchmarks दिखाते हैं कि Pro मॉडल दूसरे फ्रंटियर मॉडलों से मुकाबला कर सकता है
- पेपर के अनुसार inference token scaling लागू किया गया DeepSeek-V4-Pro-Max, standard inference benchmarks में GPT-5.2 और Gemini-3.0-Pro से बेहतर प्रदर्शन दिखाता है
- हालांकि यह GPT-5.4 और Gemini-3.1-Pro से थोड़ा नीचे है, और सबसे अत्याधुनिक फ्रंटियर मॉडलों की तुलना में लगभग 3~6 महीने पीछे की development trajectory दिखाता है
- huggingface.co/unsloth/models पर Unsloth के quantized versions आने की उम्मीद है, और यह देखना दिलचस्प रहेगा कि Flash मॉडल local machine पर कितना अच्छा चलता है
अभी कोई टिप्पणी नहीं है.