10 पॉइंट द्वारा GN⁺ 6 일 전 | 1 टिप्पणियां | WhatsApp पर शेयर करें
  • OpenAI/Anthropic संगत फ़ॉर्मैट में काम करता है, इसलिए SDK सेटिंग में केवल base_url बदलकर उसी तरीके से DeepSeek API को एक्सेस किया जा सकता है
  • डिफ़ॉल्ट मॉडल विकल्पों में deepseek-v4-flash और deepseek-v4-pro दिखते हैं, और deepseek-chat तथा deepseek-reasoner को 2026/07/24 को deprecated किया जाना निर्धारित है
  • संगतता बनाए रखने के लिए deepseek-chat, deepseek-v4-flash के non-thinking मोड के अनुरूप है, और deepseek-reasoner thinking मोड के अनुरूप है
  • Chat API को https://api.deepseek.com/chat/completions endpoint पर Authorization: Bearer ${DEEPSEEK_API_KEY} header और JSON body के साथ कॉल किया जाता है, और उदाहरण में deepseek-v4-pro, thinking, reasoning_effort="high", stream=false का उपयोग किया गया है
  • Python और Node.js दोनों के लिए OpenAI SDK कॉल उदाहरण दिए गए हैं, और response को choices[0].message.content से पढ़ा जाता है; stream को true करने पर streaming response मिल सकता है

API कॉल शुरू करना

  • DeepSeek API OpenAI/Anthropic संगत फ़ॉर्मैट का उपयोग करता है, इसलिए केवल सेटिंग बदलकर OpenAI या Anthropic SDK और उन APIs के संगत software के ज़रिए इसे एक्सेस किया जा सकता है
  • उपलब्ध मॉडल के रूप में deepseek-v4-flash, deepseek-v4-pro, deepseek-chat, deepseek-reasoner दिखाए गए हैं
    • deepseek-chat और deepseek-reasoner को 2026/07/24 को deprecated किया जाना निर्धारित है
    • संगतता बनाए रखने के लिए deepseek-chat, deepseek-v4-flash के non-thinking मोड के अनुरूप है
    • deepseek-reasoner, deepseek-v4-flash के thinking मोड के अनुरूप है

Chat API कॉल

  • API key जारी होने के बाद OpenAI API फ़ॉर्मैट के उदाहरण से DeepSeek मॉडल को एक्सेस किया जा सकता है
    • उदाहरण non-stream कॉल का है, और stream को true करने पर streaming response मिल सकता है
    • Anthropic API फ़ॉर्मैट का उदाहरण Anthropic API में देखा जा सकता है
  • curl उदाहरण https://api.deepseek.com/chat/completions पर request भेजता है, और Authorization: Bearer ${DEEPSEEK_API_KEY} header तथा JSON body का साथ में उपयोग करता है
    • मॉडल deepseek-v4-pro के रूप में निर्दिष्ट है
    • messages में system message "You are a helpful assistant." और user message "Hello!" शामिल हैं
    • thinking को {"type": "enabled"} पर सेट किया गया है
    • reasoning_effort को "high" पर सेट किया गया है
    • stream को false पर सेट किया गया है
  • Python उदाहरण पहले OpenAI SDK इंस्टॉल करने के बाद आगे बढ़ता है
    • इंस्टॉल कमांड है pip3 install openai
    • OpenAI client में api_key=os.environ.get('DEEPSEEK_API_KEY') और base_url="https://api.deepseek.com"; का उपयोग किया गया है
    • client.chat.completions.create कॉल में मॉडल deepseek-v4-pro, stream=False, reasoning_effort="high" पर सेट है
    • extra_body={"thinking": {"type": "enabled"}} भी साथ में भेजा जाता है
    • response को response.choices[0].message.content के रूप में प्रिंट किया जाता है
  • Node.js उदाहरण भी पहले OpenAI SDK इंस्टॉल करने के बाद आगे बढ़ता है
    • इंस्टॉल कमांड है npm install openai
    • OpenAI instance में baseURL: 'https://api.deepseek.com' और apiKey: process.env.DEEPSEEK_API_KEY का उपयोग किया गया है
    • openai.chat.completions.create कॉल में messages, model: "deepseek-v4-pro", thinking: {"type": "enabled"}, reasoning_effort: "high", stream: false सेट किए गए हैं
    • परिणाम को completion.choices[0].message.content के रूप में प्रिंट किया जाता है

1 टिप्पणियां

 
GN⁺ 6 일 전
Hacker News की राय
  • v4 pro जैसे बड़े मॉडल की कीमत 10 लाख टोकन आउटपुट पर लगभग 4 डॉलर है, लेकिन यह बात सच है या नहीं कि "फ्रंटियर लैब्स inference पर पागलों की तरह subsidy देकर इसे चला रही हैं", इस पर मुझे यक़ीन नहीं है
    subscription से भी काफ़ी मुनाफ़ा हो सकता है, और API pricing की तो बात ही अलग है
    OpenRouter के हिसाब से input $1.74/M और output $3.48/M है

    • यह भी कहा जा रहा है कि अभी DeepSeek के inference cards की कमी की वजह से कीमत ज़्यादा है
      प्रेस रिलीज़ में कहा गया है कि इस साल की दूसरी छमाही में Ascend 950 computing cards आने के बाद Pro की कीमत काफ़ी घट जाएगी
    • operating cost के हिसाब से यह मुनाफ़े में हो सकता है, लेकिन अभी depreciation schedule को शामिल करने वाले capital cost के हिसाब से शायद नहीं
      हालांकि हाल में उन लागत अनुमानों के भी उम्मीद से ज़्यादा बढ़ने की बात हो रही है
    • मैं भी इसे लगभग ऐसे ही देखता हूँ
      subscription service पहले से ही मुनाफ़े में है, और subsidy वाली बात आख़िरकार enterprise customer API से ज़्यादा margin निकालने की दलील जैसी लगती है
    • बात सही है, लेकिन अभी भी उस pricing level पर कोई पश्चिमी provider नहीं है
      चीन में बिजली की लागत भी कम है
  • चमकदार प्रेस रिलीज़ से पहले developer docs आ जाना अजीब तरह से अच्छा लगा

    • सही बात, सच में this is the way
    • अगर इसे open source कहना है, तो training data और training scripts कहाँ हैं?
      बाद में सुधार देखा तो लगता है ऊपर वाली टिप्पणी से "open source" वाला शब्द हट गया है
  • यह तो पहले ही OpenRouter पर आ चुका है
    Pro की कीमत input $1.74/m, output $3.48/m है, और Flash की input $0.14/m, output $0.28/m है

  • चीन से सच में open source आना अच्छा लग रहा है
    मुझे पता है कि इसके पीछे कोई छिपा हुआ मकसद हो सकता है, फिर भी दिल उस ओर जाता है

    • अमेरिकी कंपनियाँ मॉडल access के पैसे लेने के बाद भी ज़रूरत से ज़्यादा identity verification माँगती हैं, डेटा को store, analyze और training में इस्तेमाल करती हैं, और ज़रूरत पड़ने पर authorities को सौंप देने की बात भी खुलकर कहती हैं
      चीन के hidden motives एक अनुमान हैं, लेकिन अमेरिकी पक्ष की बातें तो खुलकर सामने हैं
    • चीनी लैब्स मॉडल क्यों जारी करती हैं, इसे समझने में यह लेख मददगार है
      http://try.works/why-chinese-ai-labs-went-open-and-will-remain-open
    • यह सिर्फ open weights है
  • 1.6T Pro base model को Hugging Face पर डाल दिया गया है
    यहाँ T-स्तर के मॉडल की notation मैं पहली बार देख रहा हूँ

  • https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro/blob/main/DeepSeek_V4.pdf

    मॉडल जारी हो गया है और काफ़ी प्रभावशाली लग रहा है
    frontier-स्तर का performance है, लेकिन लागत बहुत कम है, और मुझे यह Opus 4.6 से बेहतर लगा

    • अब क्या मॉडल की तुलना Opus से करने की ज़रूरत भी है?
      Opus उपयोगकर्ता तो वैसे भी मानते रहेंगे कि वही सबसे अच्छा है, और जो उपयोगकर्ता नहीं हैं वे उसकी लागत, lock-in और सीमाएँ नहीं चाहते
      मेरे जैसे non-user अब भी वही सबसे सस्ता और तेज़ मॉडल इस्तेमाल करते हैं जो काम पूरा कर दे, और अभी वह भूमिका MiniMax M2.5 निभा रहा है
      कभी-कभी ज़्यादा महँगे नए मॉडल भी आज़मा लेता हूँ, लेकिन नतीजे लगभग वही होते हैं, इसलिए लगता है कहीं AI industry की पूरी hype ही ऐसी तो नहीं जो बस benchmarks में ही प्रगति दिखाती है
    • यह Opus 4.7 की तुलना में कैसा है, जानना चाहूँगा
      इस पूरे हफ्ते Anthropic Opus 4.7 hackathon में भाग लेते हुए 4.7 को काफ़ी इस्तेमाल किया, और हालांकि यह 4.6 से बहुत ज़्यादा tokens खाता है, फिर भी काफ़ी प्रभावशाली था
    • क्या यह सच में Opus 4.6 से बेहतर है, या बस benchmark optimization ही अच्छा है, यह जानने की जिज्ञासा है
      क्या किसी ने agent harness के साथ असली coding भी करके देखी है?
      अगर coding क्षमता Claude Code + Opus 4.6 से बेहतर हो, तो मैं तुरंत बदलने को तैयार हूँ
    • फिर वही शुरू हो गया
      हर दिन Opus 4.6 से बेहतर होने का दावा करने वाली लॉन्च पोस्ट आती रहती हैं, जबकि खुद deepseek भी thinking को शामिल करने पर opus से बेहतर होने का दावा नहीं कर रहा
      Dsv3 benchmark inflate करने वाला मॉडल नहीं था, और benchmark के बाहर के कामों में भी काफ़ी स्थिर था; SoTA तक नहीं पहुँचता था, लेकिन ठीक-ठाक था
      यह मॉडल भी वैसा ही लगता है
      टॉप performance से बस थोड़ा नीचे है, लेकिन फ़र्क बड़ा नहीं और कीमत बहुत कम है
      बड़ा मॉडल इस समय ds खुद $1.74 in / $3.48 out / $0.14 cache पर serve कर रहा है, इसलिए value के हिसाब से काफ़ी सस्ता है
      छोटा मॉडल $0.14 in / $0.28 out / $0.028 cache पर है, इसलिए वह लगभग इतना सस्ता है कि उस पर ध्यान देने की ज़रूरत ही नहीं और घर पर चलाने के लिए व्यावहारिक उम्मीदवार हो सकता है
      अगर performance ठीक निकला तो यह haiku या gemini-flash सीरीज़ से अच्छी टक्कर ले सकता है
    • सार्वजनिक benchmark numbers से मोटा हिसाब लगाया तो, जिन 20 metrics पर दोनों के scores हैं, वहाँ कुल 20.1 percentage points का फ़र्क निकलता है
      औसत improvement लगभग 2% बनती है, और सच कहूँ तो समझ नहीं आता कि इसे बहुत बड़ा मानें या मामूली
      Claude 4.6 लंबे context वाले question answering में, खासकर CorpusQA के corpuses और MRCR की multi-round बातचीत में, लगभग 10pp बेहतर था
      दूसरी ओर DSv4, IMOAnswerBench में पूरे 14pp और SimpleQA-Verified में 12pp आगे था
  • weights यहाँ से डाउनलोड किए जा सकते हैं
    https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro

  • मुझे इस क्षेत्र में गहरी दिलचस्पी भी है और मेरा बहुत कुछ इससे जुड़ा भी है, लेकिन सच कहूँ तो अब सब कुछ track करने की कोशिश करते-करते burnout होने लगा है
    AI की प्रगति के साथ बने रहने के लिए अब तो ऐसा लगता है कि AI को ही AI की प्रगति का सारांश देना चाहिए, और हम उस बिंदु से भी काफ़ी आगे निकल चुके हैं

    • सब कुछ track करने की कोशिश न करना ही बेहतर है
      यह ख़बरों जैसा है; जब सच में कुछ जानने लायक होगा, कोई न कोई पहले बता ही देगा
    • मुख्य खिलाड़ी लगभग वही रहते हैं
      इसे खेल की तरह follow किया जा सकता है, और अगर शीर्ष स्थान बदलते रहने की बात स्वीकार कर लो, तो यह इतना थकाने वाला नहीं लगता
    • महसूस यही होता है कि GPT-4 के बाद सब कुछ काफ़ी एक जैसा है
      नया मॉडल आए तो बस कुछ benchmarks बेहतर होने की बात होती है, लेकिन वास्तव में इस्तेमाल करने का व्यक्तिपरक अनुभव लगभग वैसा ही रहता है
      उसके बाद से सच में चौंका देने वाली चीज़ें कम ही आई हैं, और अब ऐसा भी लगता है कि यह रुचि सिर्फ बहुत उत्साही लोगों तक सीमित होकर ठहर गई है
  • High Flyer ने इसे बनाने के लिए Anthropic की खुली नकल की, इससे भी ज़्यादा परेशान करने वाली बात यह है कि GAB ने उसके भीतर xz-स्तर के easter eggs के दर्जनों टुकड़े डालने लायक समय दे दिया

  • अभी OpenRouter के ज़रिए Pi Coding agent में टेस्ट किया, और कई बार यह read और write tools का सही इस्तेमाल नहीं कर पा रहा
    काफ़ी निराशाजनक है, और सोच रहा हूँ कि "direct calls का इस्तेमाल मत करो, हमेशा दिए गए tools ही इस्तेमाल करो" जैसे prompts के अलावा कोई बेहतर समाधान है या नहीं

    • अभी आए ज़्यादा समय नहीं हुआ, इसलिए थोड़ा इंतज़ार करना बेहतर होगा
      संभव है कि Pi के साथ pre-testing अभी पर्याप्त न हुई हो