DeepSeek v4
(huggingface.co)- OpenAI/Anthropic संगत फ़ॉर्मैट में काम करता है, इसलिए SDK सेटिंग में केवल
base_urlबदलकर उसी तरीके से DeepSeek API को एक्सेस किया जा सकता है - डिफ़ॉल्ट मॉडल विकल्पों में
deepseek-v4-flashऔरdeepseek-v4-proदिखते हैं, औरdeepseek-chatतथाdeepseek-reasonerको 2026/07/24 को deprecated किया जाना निर्धारित है - संगतता बनाए रखने के लिए
deepseek-chat,deepseek-v4-flashके non-thinking मोड के अनुरूप है, औरdeepseek-reasonerthinking मोड के अनुरूप है - Chat API को
https://api.deepseek.com/chat/completionsendpoint परAuthorization: Bearer ${DEEPSEEK_API_KEY}header और JSON body के साथ कॉल किया जाता है, और उदाहरण मेंdeepseek-v4-pro,thinking,reasoning_effort="high",stream=falseका उपयोग किया गया है - Python और Node.js दोनों के लिए OpenAI SDK कॉल उदाहरण दिए गए हैं, और response को
choices[0].message.contentसे पढ़ा जाता है;streamकोtrueकरने पर streaming response मिल सकता है
API कॉल शुरू करना
- DeepSeek API OpenAI/Anthropic संगत फ़ॉर्मैट का उपयोग करता है, इसलिए केवल सेटिंग बदलकर OpenAI या Anthropic SDK और उन APIs के संगत software के ज़रिए इसे एक्सेस किया जा सकता है
- OpenAI के लिए
base_urlहैhttps://api.deepseek.com - Anthropic के लिए
base_urlहैhttps://api.deepseek.com/anthropic api_keyअलग से जारी कराया जाना चाहिए
- OpenAI के लिए
- उपलब्ध मॉडल के रूप में
deepseek-v4-flash,deepseek-v4-pro,deepseek-chat,deepseek-reasonerदिखाए गए हैंdeepseek-chatऔरdeepseek-reasonerको 2026/07/24 को deprecated किया जाना निर्धारित है- संगतता बनाए रखने के लिए
deepseek-chat,deepseek-v4-flashके non-thinking मोड के अनुरूप है deepseek-reasoner,deepseek-v4-flashके thinking मोड के अनुरूप है
Chat API कॉल
- API key जारी होने के बाद OpenAI API फ़ॉर्मैट के उदाहरण से DeepSeek मॉडल को एक्सेस किया जा सकता है
- उदाहरण non-stream कॉल का है, और
streamकोtrueकरने पर streaming response मिल सकता है - Anthropic API फ़ॉर्मैट का उदाहरण Anthropic API में देखा जा सकता है
- उदाहरण non-stream कॉल का है, और
curlउदाहरणhttps://api.deepseek.com/chat/completionsपर request भेजता है, औरAuthorization: Bearer ${DEEPSEEK_API_KEY}header तथा JSON body का साथ में उपयोग करता है- मॉडल
deepseek-v4-proके रूप में निर्दिष्ट है messagesमें system message"You are a helpful assistant."और user message"Hello!"शामिल हैंthinkingको{"type": "enabled"}पर सेट किया गया हैreasoning_effortको"high"पर सेट किया गया हैstreamकोfalseपर सेट किया गया है
- मॉडल
- Python उदाहरण पहले OpenAI SDK इंस्टॉल करने के बाद आगे बढ़ता है
- इंस्टॉल कमांड है
pip3 install openai OpenAIclient मेंapi_key=os.environ.get('DEEPSEEK_API_KEY')औरbase_url="https://api.deepseek.com"का उपयोग किया गया हैclient.chat.completions.createकॉल में मॉडलdeepseek-v4-pro,stream=False,reasoning_effort="high"पर सेट हैextra_body={"thinking": {"type": "enabled"}}भी साथ में भेजा जाता है- response को
response.choices[0].message.contentके रूप में प्रिंट किया जाता है
- इंस्टॉल कमांड है
- Node.js उदाहरण भी पहले OpenAI SDK इंस्टॉल करने के बाद आगे बढ़ता है
- इंस्टॉल कमांड है
npm install openai OpenAIinstance मेंbaseURL: 'https://api.deepseek.com'औरapiKey: process.env.DEEPSEEK_API_KEYका उपयोग किया गया हैopenai.chat.completions.createकॉल मेंmessages,model: "deepseek-v4-pro",thinking: {"type": "enabled"},reasoning_effort: "high",stream: falseसेट किए गए हैं- परिणाम को
completion.choices[0].message.contentके रूप में प्रिंट किया जाता है
- इंस्टॉल कमांड है
1 टिप्पणियां
Hacker News की राय
v4 pro जैसे बड़े मॉडल की कीमत 10 लाख टोकन आउटपुट पर लगभग 4 डॉलर है, लेकिन यह बात सच है या नहीं कि "फ्रंटियर लैब्स inference पर पागलों की तरह subsidy देकर इसे चला रही हैं", इस पर मुझे यक़ीन नहीं है
subscription से भी काफ़ी मुनाफ़ा हो सकता है, और API pricing की तो बात ही अलग है
OpenRouter के हिसाब से input $1.74/M और output $3.48/M है
प्रेस रिलीज़ में कहा गया है कि इस साल की दूसरी छमाही में Ascend 950 computing cards आने के बाद Pro की कीमत काफ़ी घट जाएगी
हालांकि हाल में उन लागत अनुमानों के भी उम्मीद से ज़्यादा बढ़ने की बात हो रही है
subscription service पहले से ही मुनाफ़े में है, और subsidy वाली बात आख़िरकार enterprise customer API से ज़्यादा margin निकालने की दलील जैसी लगती है
चीन में बिजली की लागत भी कम है
चमकदार प्रेस रिलीज़ से पहले developer docs आ जाना अजीब तरह से अच्छा लगा
बाद में सुधार देखा तो लगता है ऊपर वाली टिप्पणी से "open source" वाला शब्द हट गया है
यह तो पहले ही OpenRouter पर आ चुका है
Pro की कीमत input $1.74/m, output $3.48/m है, और Flash की input $0.14/m, output $0.28/m है
यहाँ Api Error दिख रहा है
बाकी सभी मॉडल सामान्य रूप से काम कर रहे हैं
https://openrouter.ai/deepseek/deepseek-v4-pro
https://openrouter.ai/deepseek/deepseek-v4-flash
चीन से सच में open source आना अच्छा लग रहा है
मुझे पता है कि इसके पीछे कोई छिपा हुआ मकसद हो सकता है, फिर भी दिल उस ओर जाता है
चीन के hidden motives एक अनुमान हैं, लेकिन अमेरिकी पक्ष की बातें तो खुलकर सामने हैं
http://try.works/why-chinese-ai-labs-went-open-and-will-remain-open
1.6T Pro base model को Hugging Face पर डाल दिया गया है
यहाँ T-स्तर के मॉडल की notation मैं पहली बार देख रहा हूँ
https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro/blob/main/DeepSeek_V4.pdf
मॉडल जारी हो गया है और काफ़ी प्रभावशाली लग रहा है
frontier-स्तर का performance है, लेकिन लागत बहुत कम है, और मुझे यह Opus 4.6 से बेहतर लगा
Opus उपयोगकर्ता तो वैसे भी मानते रहेंगे कि वही सबसे अच्छा है, और जो उपयोगकर्ता नहीं हैं वे उसकी लागत, lock-in और सीमाएँ नहीं चाहते
मेरे जैसे non-user अब भी वही सबसे सस्ता और तेज़ मॉडल इस्तेमाल करते हैं जो काम पूरा कर दे, और अभी वह भूमिका MiniMax M2.5 निभा रहा है
कभी-कभी ज़्यादा महँगे नए मॉडल भी आज़मा लेता हूँ, लेकिन नतीजे लगभग वही होते हैं, इसलिए लगता है कहीं AI industry की पूरी hype ही ऐसी तो नहीं जो बस benchmarks में ही प्रगति दिखाती है
इस पूरे हफ्ते Anthropic Opus 4.7 hackathon में भाग लेते हुए 4.7 को काफ़ी इस्तेमाल किया, और हालांकि यह 4.6 से बहुत ज़्यादा tokens खाता है, फिर भी काफ़ी प्रभावशाली था
क्या किसी ने agent harness के साथ असली coding भी करके देखी है?
अगर coding क्षमता Claude Code + Opus 4.6 से बेहतर हो, तो मैं तुरंत बदलने को तैयार हूँ
हर दिन Opus 4.6 से बेहतर होने का दावा करने वाली लॉन्च पोस्ट आती रहती हैं, जबकि खुद deepseek भी thinking को शामिल करने पर opus से बेहतर होने का दावा नहीं कर रहा
Dsv3 benchmark inflate करने वाला मॉडल नहीं था, और benchmark के बाहर के कामों में भी काफ़ी स्थिर था; SoTA तक नहीं पहुँचता था, लेकिन ठीक-ठाक था
यह मॉडल भी वैसा ही लगता है
टॉप performance से बस थोड़ा नीचे है, लेकिन फ़र्क बड़ा नहीं और कीमत बहुत कम है
बड़ा मॉडल इस समय ds खुद $1.74 in / $3.48 out / $0.14 cache पर serve कर रहा है, इसलिए value के हिसाब से काफ़ी सस्ता है
छोटा मॉडल $0.14 in / $0.28 out / $0.028 cache पर है, इसलिए वह लगभग इतना सस्ता है कि उस पर ध्यान देने की ज़रूरत ही नहीं और घर पर चलाने के लिए व्यावहारिक उम्मीदवार हो सकता है
अगर performance ठीक निकला तो यह haiku या gemini-flash सीरीज़ से अच्छी टक्कर ले सकता है
औसत improvement लगभग 2% बनती है, और सच कहूँ तो समझ नहीं आता कि इसे बहुत बड़ा मानें या मामूली
Claude 4.6 लंबे context वाले question answering में, खासकर CorpusQA के corpuses और MRCR की multi-round बातचीत में, लगभग 10pp बेहतर था
दूसरी ओर DSv4, IMOAnswerBench में पूरे 14pp और SimpleQA-Verified में 12pp आगे था
weights यहाँ से डाउनलोड किए जा सकते हैं
https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro
https://huggingface.co/deepseek-ai/DeepSeek-V4-Flash-Base
https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro-Base
नया base model भी आ गया, यह सच में अच्छी बात है
मुझे इस क्षेत्र में गहरी दिलचस्पी भी है और मेरा बहुत कुछ इससे जुड़ा भी है, लेकिन सच कहूँ तो अब सब कुछ track करने की कोशिश करते-करते burnout होने लगा है
AI की प्रगति के साथ बने रहने के लिए अब तो ऐसा लगता है कि AI को ही AI की प्रगति का सारांश देना चाहिए, और हम उस बिंदु से भी काफ़ी आगे निकल चुके हैं
यह ख़बरों जैसा है; जब सच में कुछ जानने लायक होगा, कोई न कोई पहले बता ही देगा
इसे खेल की तरह follow किया जा सकता है, और अगर शीर्ष स्थान बदलते रहने की बात स्वीकार कर लो, तो यह इतना थकाने वाला नहीं लगता
नया मॉडल आए तो बस कुछ benchmarks बेहतर होने की बात होती है, लेकिन वास्तव में इस्तेमाल करने का व्यक्तिपरक अनुभव लगभग वैसा ही रहता है
उसके बाद से सच में चौंका देने वाली चीज़ें कम ही आई हैं, और अब ऐसा भी लगता है कि यह रुचि सिर्फ बहुत उत्साही लोगों तक सीमित होकर ठहर गई है
High Flyer ने इसे बनाने के लिए Anthropic की खुली नकल की, इससे भी ज़्यादा परेशान करने वाली बात यह है कि GAB ने उसके भीतर xz-स्तर के easter eggs के दर्जनों टुकड़े डालने लायक समय दे दिया
अभी OpenRouter के ज़रिए Pi Coding agent में टेस्ट किया, और कई बार यह read और write tools का सही इस्तेमाल नहीं कर पा रहा
काफ़ी निराशाजनक है, और सोच रहा हूँ कि "direct calls का इस्तेमाल मत करो, हमेशा दिए गए tools ही इस्तेमाल करो" जैसे prompts के अलावा कोई बेहतर समाधान है या नहीं
संभव है कि Pi के साथ pre-testing अभी पर्याप्त न हुई हो