31 मार्च 2026 को npm source map के ज़रिए Claude Code का source code उजागर हो गया।
इसी के आधार पर बना OpenClaude, OpenAI-compatible provider shim जोड़कर GPT-4o, DeepSeek, Gemini, Llama, Mistral आदि सहित OpenAI chat completions API को सपोर्ट करने वाले सभी मॉडलों को प्लग-इन करके इस्तेमाल करने योग्य एक fork है।

मुख्य विशेषताएँ

Claude Code के सभी tools (bash, file read/write/edit, grep, glob, agents, tasks, MCP) ज्यों-के-त्यों काम करते हैं, बस backend model को अपनी पसंद के मॉडल से बदला जा सकता है. 
सिर्फ तीन environment variables सेट करने हैं:

export CLAUDE_CODE_USE_OPENAI=1  
export OPENAI_API_KEY=sk-your-key-here  
export OPENAI_MODEL=gpt-4o  

DeepSeek, OpenRouter(Gemini), Ollama(local model) आदि के लिए सिर्फ OPENAI_BASE_URL बदलकर किसी भी provider को जोड़ा जा सकता है. 

ChatGPT Codex backend सपोर्ट

यह codexplan(GPT-5.4, high reasoning) और codexspark(GPT-5.3 Codex Spark, fast loop) नाम के दो Codex backend भी सपोर्ट करता है। अगर आप पहले से Codex CLI इस्तेमाल कर रहे हैं, तो यह ~/.codex/auth.json को अपने-आप पढ़ लेता है. 

प्रोफ़ाइल सिस्टम

एक बार profile:init चलाने पर local Ollama अपने-आप detect हो जाता है या OpenAI key सेट की जा सकती है; उसके बाद सिर्फ dev:profile से optimal provider/model के साथ तुरंत रन किया जा सकता है. 
इंस्टॉलेशन

npm install -g @gitlawb/openclaude

या सीधे source से:

git clone https://node.gitlawb.com/.../openclaude.git  
cd openclaude && bun install && bun run build  

टिप्पणी: जो लोग Claude Code का UX (slash commands, streaming, multi-step reasoning आदि) वैसा-का-वैसा रखते हुए model cost या API चुनाव की आज़ादी चाहते थे, उनके लिए यह प्रोजेक्ट सीधा जवाब है।
हालाँकि यह leaked source पर आधारित है, इसलिए Anthropic के साथ कानूनी तनाव को लेकर नज़र रखना ज़रूरी होगा, लेकिन तकनीकी रूप से इसे काफ़ी अच्छी तरह पैकेज किया गया है।
जो लोग GLM या किसी अन्य OpenAI-compatible API का इस्तेमाल करते हैं, वे भी इसे तुरंत कनेक्ट करके देख सकते हैं।​​​​​​​​​​​​​​​​

अभी कोई टिप्पणी नहीं है.

अभी कोई टिप्पणी नहीं है.