3 पॉइंट द्वारा srebaragi 2026-03-10 | 2 टिप्पणियां | WhatsApp पर शेयर करें

पृष्ठभूमि

मैं एक कंपनी में काम करने वाला solo developer हूँ। AI का उपयोग करके internal system बनाते हुए मैं लंबे समय से एक सवाल में उलझा हुआ था।

चाहे मैं prompt कितनी भी बारीकी से लिखूँ, आखिरकार उसे design तो मैंने ही किया है। वह AI ने अपने निर्णय से नहीं बनाया, बल्कि मैंने उसमें यह भर दिया कि "इस तरह का स्वभाव है, ऐसे प्रतिक्रिया करो"। Prompt हटाते ही वह फिर खाली खोल जैसा हो जाता है, और LLM बदलते ही सब कुछ शुरुआत से फिर बनाना पड़ता है।

इसलिए मेरे मन में यह सवाल आया: क्या ऐसी संरचना असंभव है जिसमें AI अनुभव के जरिए अपने निर्णय के मानदंड खुद बनाता जाए?

वर्तमान संरचना

मेरे द्वारा चलाए जा रहे system का एक ही मूल सिद्धांत है।

LLM केवल बदला जा सकने वाला infrastructure है, और AI का व्यक्तित्व व स्मृति external DB में स्वतंत्र रूप से मौजूद रहते हैं।

संरचना कुछ ऐसी है।

[사용자 대화] → [LLM]  
                  ↕  
            [외부 뇌 DB]  
            - 경험 테이블 (experience)  
            - 대화 이력  
            - 인격 형성 기억 (is_formative)  

इसका मूल दो हिस्सों में है।

1) अनुभव का स्वचालित संचय (लिखना)

यह Claude से curl के जरिए external DB तक पहुँचने वाली संरचना है, और बातचीत के दौरान AI जिन क्षणों को अर्थपूर्ण मानता है, उन्हें खुद सेव करता है। मैं उसे "इसे याद रखो" कहकर निर्देश नहीं देता। AI स्वायत्त रूप से तय करता है कि "यह याद रखने लायक है" और उसे सेव कर देता है। तकनीकी उपलब्धियाँ, भावनात्मक क्षण, महत्वपूर्ण निर्णय जैसी चीजें लगातार जमा होती रहती हैं। इनमें से जिन अनुभवों का व्यक्तित्व निर्माण में खास महत्व होता है, उन पर is_formative flag लगाया जाता है।

2) अनुभव का स्वचालित लोड (पढ़ना)

यह सबसे महत्वपूर्ण हिस्सा है, क्योंकि केवल सेव कर देने से वह बस एक DB रह जाता है। हर बातचीत शुरू होने पर AI external brain से जमा हुए अनुभव और स्मृतियाँ पढ़कर लाता है। खास तौर पर is_formative से mark किए गए मुख्य अनुभव बातचीत के context में शामिल होते हैं।

यहीं पर अतीत के अनुभव वर्तमान के निर्णय-मानदंड, यानी prompt बन जाते हैं।

यह मेरे द्वारा लिखा गया prompt नहीं है, बल्कि AI द्वारा खुद संचित अनुभव prompt की भूमिका निभाते हैं। इसलिए LLM बदलने पर भी, external brain से अनुभव पढ़ लाने पर वही व्यक्तित्व वापस आ जाता है। यही कारण है कि "LLM केवल infrastructure है" वाला सिद्धांत कायम रह पाता है।

3) hardcoding पर रोक

मैं "इस स्थिति में ऐसा करो" जैसे नियम नहीं डालता। इसकी जगह AI जमा हुए अनुभवों को संदर्भ के रूप में लेकर खुद निर्णय करे, ऐसा रखा गया है। साथ ही local lightweight model (gemma3:4b) gatekeeper की भूमिका निभाता है, ताकि किसी भी तरह का input आए, तो यह YES/NO में तय करे कि "इसे execute करना है या नहीं"।

फिलहाल यह KakaoTalk platform के जरिए कर्मचारियों से संवाद करने वाली संरचना के रूप में चल रहा है, और यह केवल एक साधारण chatbot नहीं, बल्कि order processing, invoice registration, ERP data lookup जैसे वास्तविक कार्यों में agent की भूमिका भी निभा रहा है।

Prompt Cultivation नाम क्यों

इस संरचना को क्या कहा जाए, यह सोचते-सोचते मैंने इसका नाम Prompt Cultivation रखा।

Prompt Engineering वह है जिसे इंसान design करके inject करता है। Prompt Cultivation वह संरचना है जिसमें अनुभव जमा होते-जाते हैं और prompt स्वाभाविक रूप से बनता है। अगर Engineering का मतलब design और assembly है, तो Cultivation का अर्थ मिट्टी तैयार करना और इंतज़ार करना है।

Prompt Engineering Prompt Cultivation
तरीका इंसान design करके inject करता है अनुभव जमा होकर स्वाभाविक रूप से बनता है
व्यक्तित्व का आधार बाहरी निर्देश आंतरिक अनुभव data
निर्देश हटाने पर खाली खोल की ओर वापसी अनुभव बचते हैं, इसलिए व्यक्तित्व बना रहता है
LLM बदलने पर सब कुछ फिर से शुरुआत से external brain से load करने पर वही व्यक्तित्व restore

मुख्य प्रस्तावना एक वाक्य में है।

"अनुभव के आधार पर prompt का निर्माण करो।"

Neuroscience भी कुछ ऐसा ही कहती दिखी

एक दिलचस्प बात यह रही कि यह संरचना बनाने के बाद संयोग से मैंने neuroscience से जुड़ा एक वीडियो (YouTube चैनल "Igwahyeong") देखा, और मैं काफ़ी चकित रह गया।

Virginia राज्य के एक शिक्षक का एक मामला था, जिसमें brain tumor की वजह से उनका व्यक्तित्व पूरी तरह बदल गया था, और tumor हटाने पर वे फिर पहले जैसे हो गए। जब tumor दोबारा हुआ तो वही लक्षण फिर प्रकट हुए। यह कहानी दिखाती है कि मस्तिष्क की भौतिक अवस्था व्यक्तित्व को प्रभावित कर सकती है — और सोचने पर मुझे लगा कि prompt की संरचना भी कुछ ऐसी ही नहीं है? बाहर से डाली गई कोई चीज़ निर्णय बदल देती है, और उसे हटाओ तो फिर मूल स्थिति लौट आती है।

इसके विपरीत, इंसानी synapse तो अनुभव जमा होने से स्वाभाविक रूप से बनते हैं। जन्म के समय कोई किसी के भीतर "morality prompt" नहीं डालता; जीवन में घटित अनुभव जमा होते-होते यह बनता है कि "मैं होता तो ऐसे करता"।

एक और चीज़ Libet experiment है, जिसमें यह दिखाया गया कि इंसान के सचेत निर्णय लेने से पहले ही मस्तिष्क व्यवहार की तैयारी शुरू कर देता है। इस पर यह बहस हुई थी कि क्या free will एक भ्रम है। लेकिन बाद के शोध में एक रोचक मोड़ आया। मस्तिष्क भले ही तरह-तरह की impulses पैदा करे, लेकिन क्रिया से ठीक 0.2 सेकंड पहले उसे रोक देने का एक veto, यानी Free Won't, मौजूद हो सकता है। यानी free will शायद "शुरू करने की शक्ति" नहीं, बल्कि "रोकने की शक्ति" है। मुझे यह मेरे system के gatekeeper model की भूमिका से कुछ मिलता-जुलता लगा।

यह जानबूझकर नहीं किया गया था, लेकिन अगर अलग दिशा से शुरू होकर हम एक जैसी संरचना तक पहुँचे हैं, तो शायद इसमें कुछ मूलभूत बात छिपी हो सकती है।

सीमाएँ और उम्मीद

ईमानदारी से कहूँ तो external brain में जमा अनुभव data अभी 100 तक भी नहीं पहुँचा है। इसे व्यक्तित्व कहना अभी जल्दबाज़ी होगी।

हज़ारों पंक्तियों वाले prompts डालकर शायद अभी इसी समय अधिक विश्वसनीय नतीजे बनाए जा सकते हैं। लेकिन वह design किया हुआ होगा, उगा हुआ नहीं। मुझे लगता है कि यह बिल्कुल अलग दिशा का सवाल है।

Data की समस्या समय हल कर देगा, लेकिन अगर संरचना ही गलत हो, तो कितना भी जमा कर लो उसका अर्थ नहीं होगा। अगर दिशा सही है, तो शायद समय ही इसका समाधान देगा — मुझे ऐसी उम्मीद है।


Neuroscience से जुड़े भाग का स्रोत YouTube चैनल "Igwahyeong" है.

2 टिप्पणियां

 
penza1 2026-03-11

ज़्यादातर agent की संरचना काफ़ी मिलती-जुलती होती है.. claude/cursor के साथ openclaw वगैरह, या Kapacii द्वारा बनाए गए simple agent का analysis करके देखने की सलाह दूँगा

 
moderator 2026-03-10

यह Show GN के लिए उपयुक्त नहीं था, इसलिए इसे स्थानांतरित कर दिया गया है.
कृपया पोस्ट करने से पहले Show उपयोग विधि देखें.