हाल ही में r/codex पर एक दिलचस्प पोस्ट आई।
एक यूज़र ChatGPT Pro + Codex में GPT-5.4 इस्तेमाल कर रहा था, लेकिन उसने सवाल उठाया कि context सिर्फ 258K ही क्यों दिख रहा है।
“सुना था GPT-5.4 में 1M context है, फिर सिर्फ 258K ही क्यों आ रहा है?”
असल में Codex CLI या IDE में देखने पर कुछ मामलों में default context लगभग 258K दिखता है।
कमेंट्स में जो समाधान सामने आया, वह था config setting को सीधे जोड़ना।
उदाहरण:
model_context_window=800000
model_auto_compact_token_limit=700000
इसे config.toml में जोड़ने पर, अनुभव साझा करने वालों के अनुसार context को लगभग 800K स्तर तक बढ़ाकर इस्तेमाल किया जा सकता है।
कुछ मुख्य बातें:
• GPT-5.4 अधिकतम लगभग 1M token context सपोर्ट करता है, ऐसा माना जाता है
• लेकिन Codex environment में कुछ मामलों में default setting लगभग 258K की सीमा के साथ शुरू होती है
• config values बदलने पर बड़ा context इस्तेमाल किया जा सकता है
साथ ही, कुछ यूज़र्स ने यह भी कहा कि अगर setting को अधिकतम सीमा के बहुत पास ले जाएँ तो performance गिर सकती है, इसलिए थोड़ा margin रखना बेहतर है।
⸻
मुझे व्यक्तिगत रूप से जो बात दिलचस्प लगी
AI tools जैसे-जैसे अधिक जटिल हो रहे हैं,
ऐसा लगता है कि “model spec = actual default setting” अब हमेशा सच नहीं रहता।
खासकर agentic coding / Codex जैसे environments में, सही performance निकालने के लिए settings को सीधे छेड़ना पड़ सकता है।
क्या यहाँ किसी ने Codex या CLI में long context (500K~1M) को वास्तव में इस्तेमाल करके देखा है?
यह भी जानने की उत्सुकता है कि real development workflow में इसका असर कितना महसूस होता है।
अभी कोई टिप्पणी नहीं है.