- DeepClaude Claude Code CLI के tool loop, file edit, bash, git flow को बनाए रखते हुए सिर्फ API call target को DeepSeek V4 Pro, OpenRouter, Fireworks AI, और Anthropic-compatible backend में बदल देता है
- Claude Code में मासिक $200 शुल्क और usage limits हैं, लेकिन DeepSeek V4 Pro LiveCodeBench में 96.4% स्कोर और output token के लिए $0.87/M कीमत का दावा करता है
- file read·write·edit, Bash/PowerShell execution, Glob/Grep search, multi-step autonomous tool loop, subagent creation, git tasks,
/init, और default-enabled thinking mode काम करते हैं
- default backend DeepSeek है; OpenRouter US server और low latency देता है, Fireworks AI fast inference के लिए है, और Anthropic कठिन समस्याओं में Claude Opus इस्तेमाल करने के विकल्प के रूप में दिया गया है
- backend के हिसाब से pricing: DeepSeek और OpenRouter input $0.44/M · output $0.87/M, Fireworks AI input $1.74/M · output $3.48/M, और Anthropic input $3.00/M · output $15.00/M
- DeepClaude
ANTHROPIC_BASE_URL, ANTHROPIC_AUTH_TOKEN, ANTHROPIC_DEFAULT_OPUS_MODEL, ANTHROPIC_DEFAULT_SONNET_MODEL, ANTHROPIC_DEFAULT_HAIKU_MODEL, CLAUDE_CODE_SUBAGENT_MODEL को session स्तर पर सेट करता है और समाप्ति पर मूल settings बहाल कर देता है
- DeepSeek का automatic context caching पहली request के बाद system prompt और file context को $0.004/M पर cache करता है, जिससे दोहराए जाने वाले turn में agent loop cost कम होती है
- usage comparison में Anthropic Max $200/माह के मुकाबले DeepClaude का हल्का उपयोग लगभग $20/माह, भारी उपयोग लगभग $50/माह, और automatic loop सहित लगभग $80/माह बताया गया है
- limitations भी साफ हैं: DeepSeek का Anthropic endpoint image input को support नहीं करता, Claude Code by default tools को sequentially भेजता है, MCP server tools compatibility layer के जरिए support नहीं होते, और Anthropic का
cache_control अनदेखा किया जाता है
- session के दौरान बिना restart backend बदलने के लिए live switching support है, और
localhost:3200 proxy /v1/messages को active backend तक भेजता है तथा /_proxy/mode, /_proxy/status, /_proxy/cost control endpoints देता है
- Claude Code के भीतर
/deepseek, /anthropic, /openrouter जैसे slash commands या deepclaude --switch ds से backend बदला जा सकता है, और proxy token usage तथा Anthropic के मुकाबले बचत भी गणना करता है
- इसे VS Code/Cursor terminal profile के रूप में चलाया जा सकता है, और
--remote browser में Claude Code session खोलता है, लेकिन WebSocket bridge Anthropic का उपयोग करता है जबकि model API calls local proxy के जरिए DeepSeek आदि तक भेजी जाती हैं
- remote control के लिए
claude auth login, claude.ai subscription, और proxy के लिए Node.js 18+ चाहिए, और project license MIT है
1 टिप्पणियां
Hacker News की राय
Claude Code को DeepSeek API के साथ चलाना असल में कुछ environment variables सेट करने वाला एक shell wrapper भर है
ANTHROPIC_BASE_URL=https://api.deepseek.com/anthropic,ANTHROPIC_AUTH_TOKEN,ANTHROPIC_MODELसेट करें औरclaude $@चला देंबस DeepSeek API में training exclusion चुनने का विकल्प नहीं दिखता, और अगर यह दूसरे providers पर आए तो शायद और बेहतर होगा। OpenRouter अभी बस DeepSeek के लिए proxy जैसा लगता है
लेकिन LLM से लिखी हुई लगने वाली README में ये features बहुत दब गए हैं, और history देखकर लगता है कि ये बाद में जोड़े गए, मगर README की संरचना फिर से नहीं बनाई गई
लेखक ने असरदार लगने वाली social media advertising plan भी commit कर दी है: https://github.com/aattaran/deepclaude/commit/a90a399682defc...
इसे
aivo claude -m deepseek-v4-proकी तरह चलाया जा सकता हैइसका मतलब क्या है, यह ठीक से समझ नहीं आ रहा। DeepSeek तो पहले ही Claude Code समेत कई CLI में API इस्तेमाल करने का तरीका बता रहा है
https://api-docs.deepseek.com/quick_start/agent_integrations...
README लिखने वाले LLM ने शायद इन features को उभारने के लिए सामान्य project description अपडेट नहीं की
लेखक की advertising plan भी commit हुई है: https://github.com/aattaran/deepclaude/commit/a90a399682defc...
अगर आप Claude Code का विकल्प ढूँढ रहे हैं, तो पहले pi.dev या opencode को execution framework के रूप में देखना सुझाऊँगा
models में OpenCode Go अभी cost efficiency के लिहाज़ से सबसे अच्छा दिखता है, और OpenRouter या DeepSeek direct connection भी संभव है। व्यक्तिगत रूप से मुझे लगता है कि Kimi की तरफ जाना और kimi.com subscription लेना ज़्यादा बेहतर है
अपने personal side project mouse.dev में मैं OpenCode, Claude Code और Hermes के कुछ हिस्सों को मिलाकर ऐसा cloud agent architecture बना रहा हूँ जो mobile पर भी अच्छी तरह काम करे
फिर पता चला कि bot सारे issues अपने-आप बंद कर रहा था। सच में कहने को कुछ नहीं है
अगर token pricing लगभग 10 लाख tokens पर 1 डॉलर भी हो, तब भी 200 डॉलर के tokens खर्च कर देना हैरान करने जितना आसान है
जितना भी हिसाब लगाऊँ, coding plan ही ज़्यादा value for money देता है
अगर Sonnet स्तर का performance पर्याप्त है, तो यह निश्चित रूप से एक upgrade जैसा लगता है
लेकिन Sonnet इतनी गलतियाँ करता है कि उस स्तर के model पर cost optimize करना आखिरकार बहुत मूल्यवान नहीं लगता। फिर भी विकल्प बढ़ना अच्छी बात है
design के लिए Opus और implementation के लिए DeepSeek बाँट दिया जाए तो cost काफ़ी घट सकती है। व्यक्तिगत रूप से मैं Anthropic से पूरी तरह बचूँगा, लेकिन लोग इसे क्यों इस्तेमाल करते हैं, यह समझता हूँ
चाहे company हो या individual contributor, अभी उपलब्ध सबसे अच्छा model और सबसे ऊँची, या दूसरी सबसे ऊँची reasoning intensity इस्तेमाल न करने का कोई खास कारण मुझे नहीं दिखता। pricing सस्ती नहीं है, पर इतनी महँगी भी नहीं
अच्छा architecture बनाने के लिए specs और code वगैरह बहुत पढ़ना पड़ता है, इसलिए input-output tokens बहुत लगते हैं, और bug fixing में logs या Datadog तक देखने पड़ें तो वहाँ भी यही हाल होता है
दिशा मिल जाने के बाद patches मामूली होते हैं, और refactoring या cleanup जैसे काम न हों तो सस्ते model से होने वाली बचत भी कम होती है
testing लगातार जटिल होती जा रही है। सिर्फ opencode go में ही GLM-5.1, GLM-5, Kimi K2.5, Kimi K2.6, MiMo-V2-Pro, MiMo-V2-Omni, MiMo-V2.5-Pro, MiMo-V2.5, Qwen3.5 Plus, Qwen3.6 Plus, MiniMax M2.5, MiniMax M2.7, DeepSeek V4 Pro, DeepSeek V4 Flash शामिल हैं
अब bugs के साथ इन models को खुद बड़े पैमाने पर चलाना पड़ता है, और समझ नहीं आता कि मैं यहाँ कुछ मिस तो नहीं कर रहा। सस्ते models का असली उपयोग क्या है, यह जानना चाहता हूँ
Claude.mdहो, आप नियमित रूप से output review करें, और बुनियादी CI gates से अच्छी code practices लागू करें, तो शायद ही कभी Opus पर जाना पड़ता हैलगता है यह बस environment variables के दो सेट करने जितना काम था, जिसे AI से one-shot में करवा दिया गया
सोच रहा हूँ कि क्या Claude Code सबसे अच्छा coding execution framework है। क्या इसके लिए कोई evaluation चलाने वाली जगह है?
दूसरी ओर Claude Code वह tool है जिसे consumer Max subscription और enterprise token discount दोनों तरफ से सबसे ज़्यादा subsidy मिलती है। इसमें token caching और reasoning कम करने जैसी cost optimization भी बहुत आक्रामक है, और उसकी कीमत quality गिरने के रूप में चुकानी पड़ती है
कई CLI में DeepSeek V4 इस्तेमाल करने के बाद, Langcli मुझे सबसे उपयुक्त लगा। programming tasks में इसका cache hit rate 95% से ऊपर है
एक ही context में DeepSeek V4 Flash, V4 Pro और दूसरे mainstream models के बीच यह सहज और dynamic switching देता है, और Claude Code के साथ 100% compatible है
मैंने आधा दिन लगाकर CUDA और LLAMA को 5070TI पर चलवा लिया
इसे Roo के agent mode में आज़मा सका, plan लिखवाया और फिर रोक दिया, लेकिन समय मिला तो आगे जारी रखूँगा
DeepSeek में कम-से-कम इतना भरोसा है कि पर्याप्त पैसे हों तो इसे self-host किया जा सकता है, इसलिए अचानक वापस ले लिए जाने का जोखिम कम लगता है, फिर भी local solution ज़्यादा रोमांचक लगता है
आम तौर पर जो चाहिए वह साधारण श्रम होता है, कठिन समस्या-समाधान नहीं
साफ़ तौर पर यह vibe coding से सह-लिखा हुआ लगता है, और pricing भी मेल नहीं खाती