- Large Language Models (LLM) के उपयोग से मानव की संज्ञानात्मक क्षमता कमजोर हो सकती है—इस आलोचना के जवाब में केवल यह कहना कि "सोचने की चीजें अनंत हैं, इसलिए चिंता की जरूरत नहीं" समस्या की जटिलता को नज़रअंदाज़ करता है
- व्यक्तिगत लेखन और संवाद में LLM का उपयोग करने पर भाषा का वह स्वभाव, जिसमें अर्थ और अभिव्यक्ति को अलग नहीं किया जा सकता, क्षतिग्रस्त होता है, और व्यक्ति अपनी स्वयं की आवाज़ खोजने का अवसर खो देता है
- छुट्टी की योजना, पार्टी की तैयारी, या निजी संदेश लिखने जैसी रोज़मर्रा की गतिविधियाँ भी अपने आप में मूल्यवान अनुभव हैं, और इन्हें स्वचालित करने से जीवन के अर्थ के सिकुड़ने का खतरा है
- बार-बार किए जाने वाले और उबाऊ लगने वाले कामों में भी tacit knowledge (अंतर्निहित ज्ञान) बनता है, इसलिए केवल दक्षता के नाम पर इन्हें chatbot को सौंपना लंबे समय में नुकसानदेह हो सकता है
- chatbot के उपयोग की उचित सीमा तय करना दक्षता का नहीं, बल्कि मानवीय मूल्यों और समुदाय की दिशा का प्रश्न है
प्रस्तावना: लेख की पृष्ठभूमि और समस्या-बोध
- LLM के उपयोग से संज्ञानात्मक क्षमता कमजोर हो सकती है—ऐसी आलोचना मौजूद है, और कुछ तकनीकों व क्षमताओं पर “use it or lose it” का सिद्धांत सहज और अनुभवजन्य रूप से काफ़ी विश्वसनीय लगता है
- Andy Masley का लेख The lump of cognition fallacy इस विचार को त्रुटिपूर्ण बताता है कि सोच की कुल मात्रा स्थिर होती है; उसका तर्क है कि सोच नई सोच को जन्म देती है, इसलिए उसका कुछ हिस्सा मशीनों को सौंपने से मानव-चिंतन घटता नहीं
- यह लेख Masley की चर्चा को शुरुआती बिंदु मानते हुए यह समझाना चाहता है कि सोच की आउटसोर्सिंग केवल दक्षता का प्रश्न नहीं है, और इसके जटिल तथा दीर्घकालिक प्रभावों की ओर ध्यान दिलाता है
किन स्थितियों में LLM का उपयोग नहीं करना चाहिए
- Masley के अनुसार “cognition की outsourcing हानिकारक होती है” इन स्थितियों में:
- वे गतिविधियाँ जो भविष्य की दुनिया में जीने के लिए ज़रूरी जटिल अंतर्निहित ज्ञान का निर्माण करती हैं
- ऐसे कार्य जो दूसरों के प्रति देखभाल और उपस्थित होने की भावना व्यक्त करते हैं
- अपने आप में मूल्यवान अनुभव
- ऐसे मामले जहाँ नक़ल या प्रतिनिधि-लेखन छलावा बन जाता है
- ऐसे हालात जहाँ परिणाम बहुत महत्वपूर्ण हों और outsourcing के लक्ष्य पर पूर्ण भरोसा करना कठिन हो
- इस सूची से मोटे तौर पर सहमति है, लेकिन समस्या यह है कि इस श्रेणी में आने वाली गतिविधियाँ हमारी अपेक्षा से कहीं अधिक व्यापक हैं; यहीं Masley से मूलभूत मतभेद उभरता है
व्यक्तिगत संवाद और लेखन
- केवल dating app संदेशों जैसी घनिष्ठ परिस्थितियों में ही नहीं, बल्कि पूरे व्यक्तिगत संवाद में अभिव्यक्ति का तरीका अपने आप में मूलभूत अर्थ रखता है
- संवाद में ऐसी साझा अपेक्षाएँ होती हैं जो कही नहीं जातीं; जैसे ही मशीन अभिव्यक्ति को सँवारने या बदलने लगती है, वे अपेक्षाएँ टूट जाती हैं
- शब्द-चयन और वाक्य-रचना में ही बहुत-सा अर्थ निहित होता है, इसलिए LLM के हस्तक्षेप से प्रत्यक्ष संवाद की गुणवत्ता क्षतिग्रस्त होती है
- नॉर्वे के मीडिया में यह विवाद उठा कि कुछ लोगों ने सार्वजनिक लेखन में LLM का उपयोग किया, लेकिन इसका खुलासा नहीं किया; इससे यह स्पष्ट होता है कि संवाद से हमारी अपेक्षाओं को फिर से साफ़-साफ़ परिभाषित करने की ज़रूरत है
- इस दावे के दो प्रतिवाद कि LLM गैर-देशज वक्ताओं या learning disability वाले लोगों की अभिव्यक्ति में मदद करता है
- अधिकतर मामलों में अर्थ और अभिव्यक्ति को अलग नहीं किया जा सकता; शब्द और वाक्य ही अर्थ होते हैं
- अभिव्यक्ति को मशीन पर छोड़ देने से विकास और सीखने के अवसर कम हो जाते हैं, और व्यक्ति अपनी आवाज़ खोजने का अवसर खो देता है
- spelling/grammar correction और LLM द्वारा वस्तुतः पूरा लिख देने के बीच की रेखा बहुत अधिक पतली है, और मौजूदा chatbot interface में इसे अलग करना कठिन है
- व्यवहारवादी दृष्टिकोण से कई लोग काम की दक्षता के लिए LLM का उपयोग करना चाहते हैं, लेकिन नॉर्वेजियन जैसी गैर-अंग्रेज़ी भाषाओं में text generation की गुणवत्ता अब भी बहुत निम्न स्तर पर है (नॉर्वेजियन भाषा परिषद की रिपोर्ट देखें)
- शिकायत दर्ज करने या insurance claim जैसे नौकरशाही दस्तावेज़ लिखने में LLM उपयोगी लग सकता है, लेकिन अगर सभी पक्ष शब्द-उत्पादक मशीनों का उपयोग करने लगें तो परिणाम क्या होंगे, यह स्पष्ट नहीं है
- व्यवहार में यह देखा जा रहा है कि internship, research proposal और नौकरी के आवेदन में आवेदन की संख्या तेज़ी से बढ़ती है, लेकिन कुल गुणवत्ता घटती है
- जब छात्र collaborative assignments में एक ही chatbot का उपयोग करते हैं, तो विचारों की विविधता तेज़ी से घट जाती है
- लेखन-कौशल केवल ख़ुद लिखने की प्रक्रिया से ही सुधरता है; सोचने की क्षमता के साथ भी यही बात लागू होती है
- code, recipe, instructions, documentation जैसे functional text इन समस्याओं से तुलनात्मक रूप से कम प्रभावित होते हैं
- इसके विपरीत मानवीय पाठकों के लिए किसी व्यक्तिगत लेखक द्वारा लिखे गए text में विशिष्ट भूमिका-अपेक्षाएँ और भरोसा शामिल होता है; इस भरोसे का क्षरण पूरी मानवता के लिए नुकसान बन सकता है
मूल्यवान अनुभव
- जब भी ऐसे विज्ञापन दिखते हैं जो छुट्टी की योजना, पार्टी की तैयारी, यहाँ तक कि परिवार और दोस्तों को भेजे जाने वाले संदेश भी LLM से करवाने को कहते हैं, तो तकनीकी समाज से एक तरह की दूरी महसूस होती है
- आधुनिक जीवन की बहुत-सी गतिविधियाँ झंझट या chores जैसी लग सकती हैं, लेकिन साथ ही जीवन की लगभग हर चीज़ को chores मान लेने की प्रवृत्ति अपने आप में समस्या है
- यह आधुनिक अपेक्षा कि जो चाहो वह कभी भी कर सको और जो नापसंद हो उसे टाल सको, उलटे लगातार असंतोष पैदा करती है
- इस सिद्धांत से सहमति है कि automation अधिक अर्थपूर्ण कामों के लिए समय दे सकता है, लेकिन समस्या यह है कि हम पहले ही उस बिंदु पर पहुँच चुके हैं जहाँ छुट्टी की योजना बनाना भी ऐसा काम लगने लगा है जिससे बचना चाहिए
- अगर AI का युग सचमुच “लगभग सब कुछ” automate कर सकता है, तो उम्मीद है कि यही क्षमता हमें फिर से यह समझने में मदद करेगी कि जीवन में किस चीज़ पर समय और प्रयास लगाना सार्थक है
ज्ञान का निर्माण
- इस बात से सहमति है कि “भविष्य की दुनिया में जीने के लिए ज़रूरी जटिल अंतर्निहित ज्ञान के निर्माण की प्रक्रिया में chatbot का उपयोग नहीं करना चाहिए”, और वास्तव में इस श्रेणी में दैनिक जीवन का बड़ा हिस्सा आता है
- smartphone के प्रसार के बाद यह धारणा आम हुई कि “ज़रूरत पड़े तो इंटरनेट पर देख लेंगे, इसलिए याद रखने की ज़रूरत नहीं”, लेकिन ज्ञान अर्जित करना और उसे याद रखना स्वयं सीखने की केंद्रीय प्रक्रिया है
- jazz piano सीखने के अनुभव से पता चलता है कि improvisation अच्छा करने के लिए केवल improvisation का अभ्यास काफ़ी नहीं; मौजूदा धुनों और phrases को बार-बार अभ्यास करके शरीर में बसाना पड़ता है, तभी यह सहज बोध बनता है कि क्या अच्छा सुनाई देता है
- इस अर्थ में मानव-सीखने का तरीका machine learning models जैसा लग सकता है, लेकिन इसका मतलब यह नहीं कि मनुष्य को वास्तव में वैसा ही अस्तित्व मान लिया जाए
- हम उबाऊ और दोहराव वाले कामों से जमा होने वाले ज्ञान को गंभीर रूप से कम आँक रहे हैं, और अगर दक्षता के दबाव में इन्हें chatbot को सौंप दिया जाए तो लंबे समय में महत्वपूर्ण ज्ञान और संवेदनशीलता खोने का खतरा है
“extended mind” अवधारणा पर आपत्ति
- Masley का तर्क है कि cognition केवल मस्तिष्क तक सीमित नहीं, बल्कि भौतिक परिवेश में भी घटित होती है; इसलिए यह मूल रूप से अलग नहीं कि कोई प्रक्रिया मस्तिष्क के neurons में हो रही है या फ़ोन के circuits में
- इस तरह का कथन वास्तविकता से कटा हुआ दावा है; मस्तिष्क में चलने वाली प्रक्रियाओं और कंप्यूटर पर होने वाली processing को एक जैसा नहीं माना जा सकता
- मनुष्य को केवल information processing device में घटाकर देखना, और यह मान लेना कि कुछ संज्ञानात्मक प्रक्रियाएँ बाहरी device को सौंप देने से कोई परिणाम नहीं होगा, अत्यधिक reductionism है
- किसी दोस्त का जन्मदिन ख़ुद याद रखना और chatbot द्वारा अपने-आप बधाई संदेश भेज देना दो बिल्कुल अलग काम हैं; पहले में सचेत रूप से उस व्यक्ति को याद करना और संबंध को मजबूत करना शामिल है
- “फ़ोन खोना और मस्तिष्क का एक हिस्सा खोना” की तुलना करने वाला तर्क संभावना और परिणाम की गंभीरता—दोनों स्तरों पर—पूरी तरह भिन्न स्थितियों को समान मानने की गलती करता है
- यह दावा भी बहुत प्रभावशाली नहीं कि भौतिक परिवेश सोच को न्यूनतम करने के लिए डिज़ाइन किया गया है; परिवेश बदलने पर कुछ समय के लिए अनुकूलन की ज़रूरत होती है, लेकिन जल्द ही हम अभ्यस्त हो जाते हैं और नए तरीक़े के अनुरूप सोचना शुरू कर देते हैं
यह महत्वपूर्ण है कि हम क्या सोचते हैं
- तथाकथित “lump of cognition fallacy” के बारे में इस बात से सहमति है कि मनुष्य की कुल उपलब्ध सोच सीमित है, इसलिए उसके समाप्त हो जाने की चिंता करने की आवश्यकता नहीं
- लेकिन “क्या सोचते हैं इससे फ़र्क नहीं पड़ता, बस सोचते रहो”—यह भी एक दूसरी त्रुटि है
- यह मान लेना आसान है कि अगर साधारण और उबाऊ काम कंप्यूटर को दे दिए जाएँ तो हम अधिक जटिल और रोचक कामों पर ध्यान दे पाएँगे, लेकिन कुछ मानसिक कार्य ऐसे होते हैं जिन्हें मशीन कर सकती है, फिर भी उनका अर्थ तभी बनता है जब मनुष्य उन्हें स्वयं करे
- उदाहरण के लिए, अगर किसी project के administrative काम chatbot को दे दिए जाएँ तो शोध के लिए अधिक समय मिल सकता है, लेकिन इसकी क़ीमत पर हम project के प्रति स्वामित्व-बोध और उच्च-स्तरीय निर्णय क्षमता की बुनियाद खो सकते हैं
- यह तर्क नहीं कि हर काम को automate नहीं करना चाहिए, बल्कि यह पहचानना ज़रूरी है कि automation में हमेशा कुछ पाने के साथ कुछ खोना भी शामिल होता है
- इसे “lump of labor fallacy” से तुलना करें तो शारीरिक श्रम मशीनों को देने पर काम के नए रूप पैदा हो सकते हैं, लेकिन यह निश्चित नहीं कि वे काम व्यक्ति या समाज के लिए उपयोगी, संतोषजनक और अर्थपूर्ण ही हों
- सोच के साथ भी यही बात लागू होती है; उबाऊ और एकरस विचार-प्रक्रियाएँ भी मनुष्य को प्रभावित करती हैं, और किसी विशेष संज्ञानात्मक कार्य को हटा देने पर उसका असर—सकारात्मक हो या नकारात्मक—ज़रूर बचा रहता है
निष्कर्ष
- यह तय करना कि chatbot लंबे समय में किन क्षेत्रों के लिए उपयुक्त हैं, टाला नहीं जा सकने वाला एक गंभीर कार्य है
- व्यक्तिगत संवाद का स्वभाव मूल रूप से बदल सकता है, शिक्षा-प्रणाली को बहुत गहरे अनुकूलन की ज़रूरत पड़ सकती है, और हमें जीवन में कौन-से अनुभव सचमुच महत्वपूर्ण हैं—यह अधिक सावधानी से फिर पूछना होगा
- इस तकनीक की असली दिलचस्पी इस बात में है कि यह दक्षता से अधिक मानवता और मूल्यों पर सीधे सवाल खड़े करती है
- chatbot का उपयोग कैसे करना है, यह केवल productivity या cognitive outcome का प्रश्न नहीं, बल्कि हम कैसी ज़िंदगी और कैसा समाज चाहते हैं—इस प्रश्न से जुड़ता है
- इसलिए कुछ मानवीय गतिविधियों को यांत्रिक automation से सुरक्षित रखने के स्पष्ट कारण मौजूद हैं
- शोध-परिणामों और दक्षता पर बहस के साथ-साथ, यह भी सोचना ज़रूरी है कि हम अपने समुदाय को किन मूल्यों पर खड़ा करना चाहते हैं
अभी कोई टिप्पणी नहीं है.