- AI की तेज़ प्रगति के कारण अपनी विशेषज्ञता के प्रतिस्थापित हो जाने से उपजी मनोवैज्ञानिक उदासी महसूस करने वाले डेवलपर्स की संख्या बढ़ रही है
- ऐसे अवसाद का अनुभव करने वाले डेवलपर्स बढ़ने के साथ इसे Claude Blue नाम दिया जाने लगा
- साथ ही, हर दिन उमड़ते नए buzzwords डेवलपर्स के FOMO और चिंता को और बढ़ा रहे हैं
- डर पर काबू पाने की कुंजी समझने में है
- असंख्य तरह की 'engineering' आखिरकार "API को उचित input भेजना और response को process करना" की प्रक्रिया के रूपांतर भर हैं, और यह काम डेवलपर्स पहले से ही अच्छी तरह करते आए हैं
- FOMO पैदा करने वाले content के बहाव में न बहें; मूल बात समझ लें तो नया शब्द आने पर भी उसे अपने मौजूदा ज्ञान-ढांचे में रखकर शांत दिमाग से परख सकते हैं
डर की संरचना और उससे निकलने के तरीके
- इंसान जिसकी असलियत नहीं जानता उसके सामने डर महसूस करता है। AI को लेकर डर भी AI से ज़्यादा इस बात से आता है कि यह कैसे काम करता है, यह नहीं पता
- जब उसकी असलियत समझ में आती है, तो जादू तकनीक जैसा दिखने लगता है, और तकनीक ऐसी चीज़ है जिसे सीखा जा सकता है और जिसकी सीमाएँ होती हैं
- एक सर्वे के अनुसार, AI से पैदा हुए information overload के कारण 24% कर्मचारियों की mental health और खराब हुई है
LLM की असलियत
- LLM एक next-word prediction model है, जो "दिए गए input के लिए सबसे उपयुक्त output उत्पन्न करता है"
- ChatGPT, Claude, Gemini सभी एक ही सिद्धांत पर काम करते हैं, और सेवा की असल प्रकृति HTTP API call है जिसमें client message भेजता है और model streaming के ज़रिये token लौटाता है
- AI agent की ताकतवर coding capability भी इसी API call को घेरने वाली परत भर है
AI agent के अधिक स्मार्ट बनने की प्रक्रिया
- Prompt engineering: role देना, Few-Shot, Chain-of-Thought आदि आखिरकार input text के context को अधिक ठोस बनाकर output की दिशा को guide करने के तरीके हैं
- Output format control: JSON Schema, Function Calling आदि के ज़रिये model के output को program द्वारा parse की जा सकने वाली संरचना में बदला जाता है। Function Calling के माध्यम से model tool call कर सकता है और runtime उसे execute कर सकता है। MCP, RAG भी tool calling का ही एक रूप हैं
- Context engineering: सवाल कैसे पूछना है यह नहीं, बल्कि model inference से पहले क्या देखेगा इसे design करना। Input लंबा होने पर focus कम हो जाता है, इसलिए सही जानकारी को सही जगह रखना सबसे महत्वपूर्ण है
- Prompt splitting: एक बहुत बड़े prompt के बजाय छोटे और केंद्रित कई prompts में बाँटकर process करना। Sub-Agent, Skill आदि इसी श्रेणी में आते हैं
- Harness engineering: model के चारों ओर बने पूरे execution environment को design करना। इसमें guide (कार्रवाई से पहले दिशा तय करना) और sensor (कार्रवाई के बाद नतीजे की जाँच) शामिल होते हैं
- Ralph loop: completion criteria पूरी न होने पर उसी prompt को बार-बार inject करने की तकनीक। प्रगति को file system और git में सहेजकर हर बार नए context में भी आगे बढ़ा जा सकता है। यह harness की एक उप-रणनीति भर है, harness स्वयं नहीं
FOMO से बाहर निकलना
- ज्ञान होने के बावजूद बेचैनी इसलिए रहती है क्योंकि FOMO पैदा करने वाले लोग हमें ऐसा महसूस कराते हैं मानो हमें कुछ भी नहीं पता
- FOMO से बचने का एक अच्छा तरीका यह देखना है कि FOMO पैदा करने वालों ने वास्तव में हल क्या किया है
- ज़्यादातर मामलों में उन्होंने प्रक्रिया को संक्षिप्त किया है, समस्या को हल नहीं
- अगर आप मूल बात समझते हैं, तो नई जानकारी आने पर यह नया paradigm है, पुराने concept का रूपांतरण है, या महज़ अतिशयोक्ति है — इसका निर्णय आप खुद कर सकते हैं
आगे क्या करना चाहिए
- ज़रूरी नहीं कि आपको कुछ न कुछ करना ही पड़े। अगर AI आपकी समस्या में मददगार नहीं है, तो जैसे अभी तक कर रहे थे वैसे ही चलते रहें। आखिरकार यह सिर्फ एक tool है; ज़रूरत हो तो इस्तेमाल करें, नहीं हो तो छोड़ दें
- हर चीज़ का कोई एक सही जवाब नहीं होता। इसलिए answer key खोजने की कोशिश करने की ज़रूरत नहीं है
- अगर ज्ञान है, तो आगे कोई नया शब्द आए तब भी यह समझने की नज़र बनी रहेगी कि बात किस बारे में हो रही है
अभी कोई टिप्पणी नहीं है.