LLM-आधारित एजेंट बनाते समय वास्तव में सामने आई विफलताओं के आधार पर,
पहले से काम कर रही एक सिस्टम आर्किटेक्चर और उसके डिज़ाइन के कारणों को दस्तावेज़ के रूप में व्यवस्थित किया गया है.
यह दस्तावेज़ सिर्फ एक आइडिया नोट नहीं है,
बल्कि यह समझाता है कि एजेंट क्यों “done” कहता है लेकिन वास्तव में कुछ भी नहीं होता,
और execution परिणामों को मॉडल की reasoning के बजाय बाहरी दुनिया की state से क्यों verify करना चाहिए,
जैसी समस्याओं को वास्तविक implementation के माध्यम से हल करने की कोशिश करने वाली संरचना कैसी है.
मुख्य बिंदु:
- एजेंट state को सीधे नहीं बदलता, केवल intent प्रस्तावित करता है
- state transition deterministic computation से verify किया जाता है
- “पूरा हुआ” है या नहीं, इसका निर्णय हमेशा दुनिया की state से किया जाता है.
इस संरचना पर काम करने वाला एक डेमो (TaskFlow) पहले से मौजूद है,
और अभी सार्वजनिक दस्तावेज़ वही है जो उस सिस्टम को संभव बनाने वाले
world / state / execution मॉडल को स्पष्ट रूप से खोलकर समझाता है.
यह अभी 1.0 चरण में नहीं है,
लेकिन यह ऐसे सिस्टम पर आधारित दस्तावेज़ है जो वास्तविक execution·verification·debugging के स्तर तक संभव है.
Docs: https://docs.manifesto-ai.dev
Demo (working, early): https://taskflow.manifesto-ai.dev
अभी कोई टिप्पणी नहीं है.