• DeepSeek ने V4 सीरीज़ के पहले preview models के रूप में DeepSeek-V4-Pro और DeepSeek-V4-Flash पेश किए हैं। दोनों मॉडल 10 लाख टोकन context को सपोर्ट करने वाले Mixture of Experts मॉडल हैं और MIT license के तहत उपलब्ध हैं
  • DeepSeek-V4-Pro एक ऐसा मॉडल है जिसमें कुल 1.6T parameters और 49B active parameters हैं, और यह Kimi K2.6, GLM-5.1, तथा DeepSeek V3.2 से बड़ा नया सबसे बड़ा open-weight मॉडल दिखता है
  • DeepSeek V4 की सबसे बड़ी खासियत इसकी कीमत है। Flash की कीमत 10 लाख input tokens पर $0.14 और output पर $0.28 है, जबकि Pro की कीमत input पर $1.74 और output पर $3.48 है, जो तुलना में छोटे और बड़े दोनों मॉडलों से कम है
  • यह कम कीमत लंबे context की efficiency से जुड़ी है। 10 लाख token context पर Pro, DeepSeek-V3.2 के मुकाबले single-token FLOPs को 27% और KV cache को 10% तक घटाता है, जबकि Flash में FLOPs 10% और KV cache 7% तक कम हो जाता है
  • DeepSeek के अपने benchmark में DeepSeek-V4-Pro फ्रंटियर मॉडलों से मुकाबला करने लायक दिखता है, लेकिन GPT-5.4 और Gemini-3.1-Pro से थोड़ा पीछे है, और सबसे उन्नत फ्रंटियर मॉडलों की तुलना में लगभग 3~6 महीने पीछे की development trajectory दिखाता है

मॉडल रिलीज़ और बेसिक स्पेसिफिकेशन

  • DeepSeek ने 2025 के 12वें महीने के V3.2 aur V3.2 Speciale के बाद V4 सीरीज़ के पहले मॉडल के रूप में DeepSeek-V4-Pro और DeepSeek-V4-Flash नाम के दो preview models जारी किए
  • दोनों मॉडल 10 लाख token context को सपोर्ट करने वाले Mixture of Experts मॉडल हैं, और standard MIT license का उपयोग करते हैं
  • DeepSeek-V4-Pro में कुल 1.6T parameters और 49B active parameters हैं, जबकि DeepSeek-V4-Flash में कुल 284B parameters और 13B active parameters हैं
  • DeepSeek-V4-Pro, Kimi K2.6 के 1.1T, GLM-5.1 के 754B और DeepSeek V3.2 के 685B से बड़ा है, इसलिए यह नया सबसे बड़ा open-weight मॉडल लगता है
  • Hugging Face के अनुसार मॉडल का आकार Pro के लिए 865GB और Flash के लिए 160GB है, और हल्का quantized Flash संभवतः 128GB M5 MacBook Pro पर चल सकता है
  • अगर Pro मॉडल में केवल ज़रूरी active experts को disk से stream किया जा सके, तो उसके भी उसी मशीन पर चलने की संभावना है
  • OpenRouter के ज़रिए सरल परीक्षण

कीमत, efficiency, और performance positioning

  • DeepSeek V4 में सबसे उल्लेखनीय बात इसकी कीमत है। DeepSeek pricing page के अनुसार Flash की कीमत 10 लाख input tokens पर $0.14 और 10 लाख output tokens पर $0.28 है
  • Pro की कीमत 10 लाख input tokens पर $1.74 और 10 लाख output tokens पर $3.48 रखी गई है
  • तुलना तालिका में DeepSeek V4 Flash, GPT-5.4 Nano के input $0.20·output $1.25 और Gemini 3.1 Flash-Lite के input $0.25·output $1.50 से भी सस्ता है, इसलिए यह छोटे मॉडलों में सबसे सस्ता है
  • DeepSeek V4 Pro, Gemini 3.1 Pro के input $2·output $12, GPT-5.4 के input $2.50·output $15, Claude Sonnet 4.6 के input $3·output $15, Claude Opus 4.7 के input $5·output $25, और GPT-5.5 के input $5·output $30 से कम कीमत पर है, इसलिए यह बड़े फ्रंटियर मॉडलों में सबसे सस्ता है
  • efficiency ही कम कीमत की बुनियाद है

    • DeepSeek paper के अनुसार इस रिलीज़ में लंबे context prompt की efficiency पर खास ज़ोर दिया गया है
    • 10 लाख token context पर DeepSeek-V4-Pro, DeepSeek-V3.2 की तुलना में single-token FLOPs को 27% और KV cache size को 10% तक सीमित रखता है
    • इसी स्थिति में DeepSeek-V4-Flash, DeepSeek-V3.2 की तुलना में single-token FLOPs को 10% और KV cache size को 7% तक घटाता है
  • benchmark में फ्रंटियर के करीब, लेकिन शीर्ष स्तर से पीछे

    • DeepSeek के self-reported benchmarks दिखाते हैं कि Pro मॉडल दूसरे फ्रंटियर मॉडलों से मुकाबला कर सकता है
    • पेपर के अनुसार inference token scaling लागू किया गया DeepSeek-V4-Pro-Max, standard inference benchmarks में GPT-5.2 और Gemini-3.0-Pro से बेहतर प्रदर्शन दिखाता है
    • हालांकि यह GPT-5.4 और Gemini-3.1-Pro से थोड़ा नीचे है, और सबसे अत्याधुनिक फ्रंटियर मॉडलों की तुलना में लगभग 3~6 महीने पीछे की development trajectory दिखाता है
    • huggingface.co/unsloth/models पर Unsloth के quantized versions आने की उम्मीद है, और यह देखना दिलचस्प रहेगा कि Flash मॉडल local machine पर कितना अच्छा चलता है

अभी कोई टिप्पणी नहीं है.

अभी कोई टिप्पणी नहीं है.