1 पॉइंट द्वारा GN⁺ 3 시간 전 | 1 टिप्पणियां | WhatsApp पर शेयर करें
  • DeepClaude Claude Code CLI के tool loop, file edit, bash, git flow को बनाए रखते हुए सिर्फ API call target को DeepSeek V4 Pro, OpenRouter, Fireworks AI, और Anthropic-compatible backend में बदल देता है
  • Claude Code में मासिक $200 शुल्क और usage limits हैं, लेकिन DeepSeek V4 Pro LiveCodeBench में 96.4% स्कोर और output token के लिए $0.87/M कीमत का दावा करता है
  • file read·write·edit, Bash/PowerShell execution, Glob/Grep search, multi-step autonomous tool loop, subagent creation, git tasks, /init, और default-enabled thinking mode काम करते हैं
  • default backend DeepSeek है; OpenRouter US server और low latency देता है, Fireworks AI fast inference के लिए है, और Anthropic कठिन समस्याओं में Claude Opus इस्तेमाल करने के विकल्प के रूप में दिया गया है
  • backend के हिसाब से pricing: DeepSeek और OpenRouter input $0.44/M · output $0.87/M, Fireworks AI input $1.74/M · output $3.48/M, और Anthropic input $3.00/M · output $15.00/M
  • DeepClaude ANTHROPIC_BASE_URL, ANTHROPIC_AUTH_TOKEN, ANTHROPIC_DEFAULT_OPUS_MODEL, ANTHROPIC_DEFAULT_SONNET_MODEL, ANTHROPIC_DEFAULT_HAIKU_MODEL, CLAUDE_CODE_SUBAGENT_MODEL को session स्तर पर सेट करता है और समाप्ति पर मूल settings बहाल कर देता है
  • DeepSeek का automatic context caching पहली request के बाद system prompt और file context को $0.004/M पर cache करता है, जिससे दोहराए जाने वाले turn में agent loop cost कम होती है
  • usage comparison में Anthropic Max $200/माह के मुकाबले DeepClaude का हल्का उपयोग लगभग $20/माह, भारी उपयोग लगभग $50/माह, और automatic loop सहित लगभग $80/माह बताया गया है
  • limitations भी साफ हैं: DeepSeek का Anthropic endpoint image input को support नहीं करता, Claude Code by default tools को sequentially भेजता है, MCP server tools compatibility layer के जरिए support नहीं होते, और Anthropic का cache_control अनदेखा किया जाता है
  • session के दौरान बिना restart backend बदलने के लिए live switching support है, और localhost:3200 proxy /v1/messages को active backend तक भेजता है तथा /_proxy/mode, /_proxy/status, /_proxy/cost control endpoints देता है
  • Claude Code के भीतर /deepseek, /anthropic, /openrouter जैसे slash commands या deepclaude --switch ds से backend बदला जा सकता है, और proxy token usage तथा Anthropic के मुकाबले बचत भी गणना करता है
  • इसे VS Code/Cursor terminal profile के रूप में चलाया जा सकता है, और --remote browser में Claude Code session खोलता है, लेकिन WebSocket bridge Anthropic का उपयोग करता है जबकि model API calls local proxy के जरिए DeepSeek आदि तक भेजी जाती हैं
  • remote control के लिए claude auth login, claude.ai subscription, और proxy के लिए Node.js 18+ चाहिए, और project license MIT है

1 टिप्पणियां

 
GN⁺ 3 시간 전
Hacker News की राय
  • Claude Code को DeepSeek API के साथ चलाना असल में कुछ environment variables सेट करने वाला एक shell wrapper भर है
    ANTHROPIC_BASE_URL=https://api.deepseek.com/anthropic, ANTHROPIC_AUTH_TOKEN, ANTHROPIC_MODEL सेट करें और claude $@ चला दें

    • गैर-गोपनीय प्रोजेक्ट्स में मैं करीब एक हफ्ते से DeepSeek v4 को इसी तरह इस्तेमाल कर रहा हूँ, और शायद इसलिए कि मैं उससे बहुत कठिन काम नहीं करा रहा, मुझे लगभग कोई फर्क महसूस नहीं हुआ
      बस DeepSeek API में training exclusion चुनने का विकल्प नहीं दिखता, और अगर यह दूसरे providers पर आए तो शायद और बेहतर होगा। OpenRouter अभी बस DeepSeek के लिए proxy जैसा लगता है
    • Claude का मज़ाक उड़ाने वाला कोई भी प्रोजेक्ट, चाहे उसमें सिर्फ चार लाइन code ही क्यों न हो, शायद Hacker News पर नंबर 1 पहुँच जाता है
    • deepclaude का ज़्यादा दिलचस्प हिस्सा session के बीच में model बदलने वाला local proxy और integrated cost tracking है
      लेकिन LLM से लिखी हुई लगने वाली README में ये features बहुत दब गए हैं, और history देखकर लगता है कि ये बाद में जोड़े गए, मगर README की संरचना फिर से नहीं बनाई गई
      लेखक ने असरदार लगने वाली social media advertising plan भी commit कर दी है: https://github.com/aattaran/deepclaude/commit/a90a399682defc...
    • इसी वजह से मैंने https://getaivo.dev बनाया, जहाँ coding agent के भीतर से सीधे model इस्तेमाल किए जा सकते हैं
      इसे aivo claude -m deepseek-v4-pro की तरह चलाया जा सकता है
    • मूल रूप से इस तरीके की वजह से local models समेत कोई भी model Claude Code के साथ इस्तेमाल किया जा सकता है
  • इसका मतलब क्या है, यह ठीक से समझ नहीं आ रहा। DeepSeek तो पहले ही Claude Code समेत कई CLI में API इस्तेमाल करने का तरीका बता रहा है
    https://api-docs.deepseek.com/quick_start/agent_integrations...

    • README ने वास्तव में गैर-तुच्छ features को पूरी तरह छिपा दिया है: यह session के बीच model switching proxy चलाता है, और Anthropic व दूसरे models को साथ इस्तेमाल करने पर cost को एक साथ track करता है
      README लिखने वाले LLM ने शायद इन features को उभारने के लिए सामान्य project description अपडेट नहीं की
      लेखक की advertising plan भी commit हुई है: https://github.com/aattaran/deepclaude/commit/a90a399682defc...
    • शायद इसका खास मतलब नहीं है। ऐसा लगता है जैसे किसी ने कुछ ठीक से समझे बिना और शोध किए बिना, पहला विचार एक ही बार में बनाकर HN के front page और हर social platform पर डाल दिया हो
    • यह vibe coder द्वारा vibe coder के लिए बनाया गया tool लगता है
    • मैंने देखा था कि tool call format बिल्कुल एक जैसा नहीं है। इसलिए किसी भी AI को Claude Code से जोड़ने के लिए format conversion की जरूरत पड़ सकती है
    • यह व्यवहार में कितना अच्छा चलता है, जानने की उत्सुकता है। मैंने DeepSeek को Hermes और Opencode में इस्तेमाल किया है, लेकिन system prompt से काफ़ी जोर देने के बाद भी Hermes की holographic memory tool जैसी बुनियादी tools इस्तेमाल करने की इसकी क्षमता बहुत खराब थी
  • अगर आप Claude Code का विकल्प ढूँढ रहे हैं, तो पहले pi.dev या opencode को execution framework के रूप में देखना सुझाऊँगा
    models में OpenCode Go अभी cost efficiency के लिहाज़ से सबसे अच्छा दिखता है, और OpenRouter या DeepSeek direct connection भी संभव है। व्यक्तिगत रूप से मुझे लगता है कि Kimi की तरफ जाना और kimi.com subscription लेना ज़्यादा बेहतर है

    • मैं अपना execution framework भी विकल्प के तौर पर रख रहा हूँ: https://codeberg.org/mlow/lmcli
    • pi.dev या opencode अच्छे हैं, लेकिन जिन plugins और skills का मैं इस्तेमाल करना चाहता हूँ, वे Claude Code में सबसे ज़्यादा हैं
    • सहमत। OpenCode की नींव मजबूत है, और कुछ बदलावों के साथ यह बहुत असरदार execution framework बन सकता है
      अपने personal side project mouse.dev में मैं OpenCode, Claude Code और Hermes के कुछ हिस्सों को मिलाकर ऐसा cloud agent architecture बना रहा हूँ जो mobile पर भी अच्छी तरह काम करे
    • मैंने pi.dev देखा, लेकिन GitHub पर सिर्फ 7 open issues देखकर शक हुआ
      फिर पता चला कि bot सारे issues अपने-आप बंद कर रहा था। सच में कहने को कुछ नहीं है
    • Ollama Cloud भी cost efficiency के मामले में बहुत अच्छा है। एक महीने इस्तेमाल करते हुए मैं सिर्फ एक बार 5 घंटे की limit पर पहुँचा, और वह भी तब जब मैंने 8 agents को 2 घंटे तक एक साथ चलाया था
  • अगर token pricing लगभग 10 लाख tokens पर 1 डॉलर भी हो, तब भी 200 डॉलर के tokens खर्च कर देना हैरान करने जितना आसान है
    जितना भी हिसाब लगाऊँ, coding plan ही ज़्यादा value for money देता है

  • अगर Sonnet स्तर का performance पर्याप्त है, तो यह निश्चित रूप से एक upgrade जैसा लगता है
    लेकिन Sonnet इतनी गलतियाँ करता है कि उस स्तर के model पर cost optimize करना आखिरकार बहुत मूल्यवान नहीं लगता। फिर भी विकल्प बढ़ना अच्छी बात है

    • बहुत से लोग design के लिए Opus और implementation के लिए local-hosted qwen3.6 इस्तेमाल करके अच्छे नतीजे पा रहे हैं
      design के लिए Opus और implementation के लिए DeepSeek बाँट दिया जाए तो cost काफ़ी घट सकती है। व्यक्तिगत रूप से मैं Anthropic से पूरी तरह बचूँगा, लेकिन लोग इसे क्यों इस्तेमाल करते हैं, यह समझता हूँ
    • अभी हम उस saturation point पर नहीं पहुँचे हैं जहाँ सभी frontier models की intelligence लगभग समान हो और हम speed या effective context window जैसे दूसरे factors से चुन सकें
      चाहे company हो या individual contributor, अभी उपलब्ध सबसे अच्छा model और सबसे ऊँची, या दूसरी सबसे ऊँची reasoning intensity इस्तेमाल न करने का कोई खास कारण मुझे नहीं दिखता। pricing सस्ती नहीं है, पर इतनी महँगी भी नहीं
    • मुद्दा सिर्फ अच्छा model नहीं, बल्कि सबसे अच्छा model चाहिए
      अच्छा architecture बनाने के लिए specs और code वगैरह बहुत पढ़ना पड़ता है, इसलिए input-output tokens बहुत लगते हैं, और bug fixing में logs या Datadog तक देखने पड़ें तो वहाँ भी यही हाल होता है
      दिशा मिल जाने के बाद patches मामूली होते हैं, और refactoring या cleanup जैसे काम न हों तो सस्ते model से होने वाली बचत भी कम होती है
      testing लगातार जटिल होती जा रही है। सिर्फ opencode go में ही GLM-5.1, GLM-5, Kimi K2.5, Kimi K2.6, MiMo-V2-Pro, MiMo-V2-Omni, MiMo-V2.5-Pro, MiMo-V2.5, Qwen3.5 Plus, Qwen3.6 Plus, MiniMax M2.5, MiniMax M2.7, DeepSeek V4 Pro, DeepSeek V4 Flash शामिल हैं
      अब bugs के साथ इन models को खुद बड़े पैमाने पर चलाना पड़ता है, और समझ नहीं आता कि मैं यहाँ कुछ मिस तो नहीं कर रहा। सस्ते models का असली उपयोग क्या है, यह जानना चाहता हूँ
    • मैं यह सबक बार-बार फिर से सीखता हूँ। कमज़ोर model के साथ सब ठीक चलता है, फिर उसे बहुत जटिल समस्या दे देता हूँ, कई models आज़माता हूँ, और आखिर में हार मानकर Opus 4.6 बुलाकर चीज़ें समेटनी पड़ती हैं
    • Sonnet के साथ मुझे ऐसा बिल्कुल नहीं लगता। अगर आपके पास मजबूत Claude.md हो, आप नियमित रूप से output review करें, और बुनियादी CI gates से अच्छी code practices लागू करें, तो शायद ही कभी Opus पर जाना पड़ता है
  • लगता है यह बस environment variables के दो सेट करने जितना काम था, जिसे AI से one-shot में करवा दिया गया

  • सोच रहा हूँ कि क्या Claude Code सबसे अच्छा coding execution framework है। क्या इसके लिए कोई evaluation चलाने वाली जगह है?

    • मेरे निजी अनुभव में नहीं। वही Opus model भी Factory Droid या Amp जैसे third-party execution frameworks में बेहतर काम करता है
      दूसरी ओर Claude Code वह tool है जिसे consumer Max subscription और enterprise token discount दोनों तरफ से सबसे ज़्यादा subsidy मिलती है। इसमें token caching और reasoning कम करने जैसी cost optimization भी बहुत आक्रामक है, और उसकी कीमत quality गिरने के रूप में चुकानी पड़ती है
  • कई CLI में DeepSeek V4 इस्तेमाल करने के बाद, Langcli मुझे सबसे उपयुक्त लगा। programming tasks में इसका cache hit rate 95% से ऊपर है
    एक ही context में DeepSeek V4 Flash, V4 Pro और दूसरे mainstream models के बीच यह सहज और dynamic switching देता है, और Claude Code के साथ 100% compatible है

  • मैंने आधा दिन लगाकर CUDA और LLAMA को 5070TI पर चलवा लिया
    इसे Roo के agent mode में आज़मा सका, plan लिखवाया और फिर रोक दिया, लेकिन समय मिला तो आगे जारी रखूँगा
    DeepSeek में कम-से-कम इतना भरोसा है कि पर्याप्त पैसे हों तो इसे self-host किया जा सकता है, इसलिए अचानक वापस ले लिए जाने का जोखिम कम लगता है, फिर भी local solution ज़्यादा रोमांचक लगता है
    आम तौर पर जो चाहिए वह साधारण श्रम होता है, कठिन समस्या-समाधान नहीं

  • साफ़ तौर पर यह vibe coding से सह-लिखा हुआ लगता है, और pricing भी मेल नहीं खाती

    • आगे चलकर vibe coding से न लिखे गए titles ढूँढना शायद सच में बहुत मुश्किल हो जाएगा
    • यह घटिया vibe coding है। मशीनों से details आसानी से verify कराई जा सकती हैं, तो उनका इस्तेमाल वहाँ करना चाहिए