LLM-आधारित AI agents को जब वास्तव में बनाया जाता है,
तो एक बिंदु के बाद हमेशा लगभग एक जैसी दीवार से टकराना पड़ता है।

  • model स्पष्ट रूप से अधिक स्मार्ट हो गया है
  • लेकिन execution लगातार अस्थिर रहता है
  • उसने ऐसा क्यों किया, यह समझाना मुश्किल होता है
  • और एक ही input पर भी परिणाम बदल जाते हैं

इसलिए आम तौर पर निष्कर्ष यही निकाला जाता है।

“model अभी पर्याप्त नहीं है। चलिए, इससे बड़ा model इस्तेमाल करते हैं।”

लेकिन वास्तव में कई trials और errors से गुजरते हुए जो महसूस हुआ,
वह यह था कि समस्या का मूल model की intelligence नहीं,
बल्कि यह है कि agent जिस ‘world’ में काम करता है, उसका design ही नहीं किया गया है


समस्या का सार: world सिर्फ model के दिमाग के अंदर है

कई agent architectures में
state, rules, और possible actions जैसी चीजें
सब कुछ implicitly model की reasoning के भीतर समा जाता है।

यानी,

  • क्या संभव है
  • कोई action क्यों विफल हुआ
  • state कब बदली

इन सबके लिए हम model से उम्मीद करते हैं कि वह “इन्हें याद रखे और reasoning करके बताए”।

इस संरचना में
चाहे model कितना भी बेहतर हो जाए,
debugging, reproducibility, और explainability हासिल करना कठिन रहता है।


नज़रिया बदलना: World-Centric Architecture

इसीलिए यह लेख नज़रिया उलटते हुए,
model-केंद्रित (Intelligence-Centric) नहीं
बल्कि world-केंद्रित (World-Centric) तरीके से agents को design करने का प्रस्ताव देता है।

मुख्य विचार सरल है।

  • world को model के बाहर स्पष्ट रूप से मौजूद होना चाहिए
  • state को Snapshot के रूप में स्थिर किया जाना चाहिए
  • state changes सिर्फ Patch/Apply नाम के एकमात्र path से होने चाहिए
  • और “क्या यह action संभव है?” इसका उत्तर संरचनात्मक रूप से calculate होना चाहिए

और सबसे महत्वपूर्ण सिद्धांत यह वाक्य है।

> intelligence को execute नहीं करना चाहिए, सिर्फ propose करना चाहिए

model यह propose कर सकता है कि “वह क्या आज़माना चाहता है”,
लेकिन वास्तव में state बदलने का अधिकार उसके पास नहीं होना चाहिए।


यह महत्वपूर्ण क्यों है?

इस संरचना में एक दिलचस्प बात होती है।

  • असंभव actions execution stage तक पहुंचते ही नहीं
  • failures को “model बेवकूफ़ है” कहकर नहीं, बल्कि structural reasons से समझाया जा सकता है
  • यहां तक कि यदि action selection random हो, तब भी system टूटता नहीं है

क्योंकि
correctness की गारंटी model की reasoning नहीं,
बल्कि world के rules और state model देते हैं

मुझे लगता है कि यह research demo की तुलना में
“production में चल सकने वाले system” के अधिक करीब का approach है।


यह लेख क्या नहीं है

  • कोई नया agent framework tutorial ❌
  • model performance comparison पर लेख ❌
  • prompt engineering की कहानी ❌

इसके बजाय,

> “हम AI agents को आखिर इतना अस्थिर क्यों बना रहे हैं?”

यह सवाल उठाना उद्देश्य था।


यह भी जानने में रुचि है कि यह approach
मौजूदा state machines, workflow engines, DSL, या PL के नज़रिए से
कैसा दिखाई देता है।

“आखिरकार इसे किस चीज़ में समेटा जा सकता है?”
इस दृष्टिकोण से राय या आलोचना का भी स्वागत है।

अभी कोई टिप्पणी नहीं है.

अभी कोई टिप्पणी नहीं है.