• इंसान स्वाभाविक रूप से AI को ‘इंसान जैसा’ समझना चाहता है, लेकिन इस फ्रेम में LLM की hallucination और अजीब व्यवहार को ठीक से समझना मुश्किल है
  • LLM कोई छोटा व्यक्तित्व नहीं, बल्कि इंटरनेट और किताबों से बटोरे गए शब्दों से भरी ‘शब्दों की थैली (bag of words)’ के ज़्यादा करीब है, जो इनपुट के जवाब में सबसे प्रासंगिक वाक्य-खंड लौटाता है
  • थैली के अंदर कितना टेक्स्ट और डेटा जमा है, इसके आधार पर इसकी मज़बूतियाँ (घटनाएँ, आँकड़े, कम-गुणवत्ता वाले शोध) और कमज़ोरियाँ (दुर्लभ तथ्य, भविष्य की वैज्ञानिक खोजें, सचमुच अच्छे विचार) बहुत साफ़ अलग हो जाती हैं
  • AI को इंसान की तरह देखते ही स्टेटस और प्रतिस्पर्धा का खेल शुरू हो जाता है, और बात “कौन बेहतर है, कौन किसकी जगह लेगा” जैसे सवालों पर पहुँच जाती है; लेकिन इसे शब्दों की थैली मानें तो यह एक साधारण टूल और amplifier के रूप में दिखता है
  • ‘Artificial Intelligence’ नाम ही इंसान-केंद्रित तुलना को बढ़ावा देता है और बुद्धिमत्ता की अवधारणा में भ्रम और illusion पैदा करता है; निष्कर्ष यह है कि आगे हमें ऐसे नए रूपक की ज़रूरत है जो गैर-मानव चीज़ों पर मानवीय ढाँचा न थोपे

इंसान AI को इंसान जैसा क्यों महसूस करता है

  • इंसानों में चेहरा न होने पर भी चेहरा, इरादा और व्यक्तित्व ढूँढ़ लेने का गहरा cognitive bias होता है
    • grilled cheese में Virgin Mary का चेहरा देख लेना, या नेमाटोड के cross-section और मछली-पक्षियों के ढेर में इंसानी चेहरा देखना, अत्यधिक pattern recognition का उदाहरण है
    • Arcimboldo की पेंटिंग की तरह मछली और पक्षियों के ढेर में भी ‘बूढ़े आदमी का चेहरा’ पढ़ लेना हमारी संज्ञानात्मक अति-संवेदनशीलता का default है
  • विकासवादी रूप से ऐसा माहौल ज़्यादा सुरक्षित था जहाँ किसी वस्तु को इंसान समझने की गलती, किसी इंसान को वस्तु समझने की गलती से बेहतर थी
    • बीमारी के लिए चुड़ैल को दोष देना, ग्रहण या ज्वालामुखी के लिए किसी अलौकिक सत्ता को ज़िम्मेदार मानना
    • sleep paralysis को “REM अवस्था में motor cortex दबा हुआ है” की बजाय “सीने पर कोई राक्षस बैठा है” कहकर समझाने वाला अचेतन व्याख्यात्मक पैटर्न
  • हाल के LLM व्यवहार इस ‘छोटे इंसान’ वाले रूपक से लगातार टकराते हैं
    • होमवर्क में नकली स्रोत बना देना, ‘strawberry’ में r की संख्या गलत बताना, या पिज़्ज़ा पर wood glue लगाने की सलाह देना जैसे उदाहरण सामने आए हैं
    • इंसान के लिए अजीब लगने वाली ये गलतियाँ, एक यांत्रिक generation system के रूप में देखें तो कहीं ज़्यादा स्वाभाविक लगती हैं
  • इंसानी मनोविज्ञान के नियमों से LLM को समझने की कोशिश, Scrabble को Pictionary के नियमों से समझने जैसी है
    • ये सिस्टम इंसानों की तरह व्यवहार नहीं करते, और यह कहना कि वे इंसान जैसे नहीं हैं कोई निंदा नहीं बल्कि सीधा वर्णन है
    • जब तक हम AI पर व्यक्तित्व की धारणा प्रोजेक्ट करते रहेंगे, हैरानी और भ्रम बने रहेंगे

WHAT’S IN THE BAG : AI = शब्दों की थैली (bag of words)

  • AI एक शब्दों की थैली है, जिसमें इंटरनेट और किताबों से उठाए गए लगभग सारे शब्द भरे हैं
    • जब उपयोगकर्ता कोई सवाल पूछता है, तो यह थैली उसमें से सबसे प्रासंगिक शब्द-समूह निकालकर जवाब देती है
    • कंपनियाँ इसमें अदृश्य system prompt, यानी ‘अदृश्य शब्द’ भी जोड़ती हैं, जिनसे जवाब और विश्वसनीय लगते हैं
  • यह रूपक LLM की झूठ और hallucination को समझने में खास तौर पर उपयोगी है
    • गलत जवाब पकड़ने पर यह तुरंत बढ़ा-चढ़ाकर माफ़ी और वादे करने लगता है, लेकिन अगली ही पंक्ति में फिर गलती या झूठ दोहरा सकता है
    • इंसानी मानक से यह दोहरा या छलपूर्ण व्यवहार लगता है, लेकिन अगर इसे ‘झूठ पकड़े जाने पर इस्तेमाल होने वाले वाक्य’ के थैली से बाहर आने के रूप में देखें, तो यह स्वाभाविक है
    • जैसे calculator का गुणा करना इंसानी व्यवहार नहीं कहलाता, वैसे ही यह भी व्यवहार नहीं बल्कि output pattern है
  • “शब्दों की थैली” यह अनुमान लगाने का heuristic भी है कि यह कहाँ मज़बूत है और कहाँ कमज़ोर
    • “उत्तरी अमेरिका की 10 सबसे भीषण ट्रैफ़िक दुर्घटनाएँ” जैसी खूब दर्ज घटनाओं पर यह अच्छा जवाब दे सकता है, क्योंकि थैली में सामग्री भरपूर है
    • लेकिन “Brachiosaurus brancai का reclassification किसने और कब किया” जैसी दुर्लभ जानकारी पर थैली में टेक्स्ट कम होने से गलत उत्तर की संभावना ज़्यादा है
    • “ज़िंदगी का सबसे बड़ा सबक क्या है?” जैसे सवालों पर, उस विषय पर इंसानों द्वारा लिखा गया ‘नकली गूढ़ता’ वाला टेक्स्ट इतना ज़्यादा है कि जवाब भी वैसा ही सतही निकलता है
  • जैसे ही AI को सर्वज्ञ और सर्वशक्तिमान बुद्धि के पिंड की तरह देखा जाता है, “इसे यह भी नहीं पता, तो यह और रहस्यमय है” जैसी प्रतिक्रिया आना आसान हो जाता है
    • coin magic का वीडियो देखकर “ChatGPT से पूछो, उसे भी नहीं पता” जैसी प्रतिक्रिया, AI को ‘मुहल्ले के सबसे बुद्धिमान rabbi’ की तरह देखने वाले फ्रेम से आती है
    • लेकिन शब्दों की थैली के नज़रिये से, जादूगर अपनी trick टेक्स्ट में सार्वजनिक नहीं करते, और उसका वर्णन भी मुश्किल होता है, इसलिए थैली में जानकारी लगभग नहीं है, यह न जानना स्वाभाविक है

GALILEO GPT – विज्ञान और ‘शब्दों की थैली’ की सीमाएँ

  • “शब्दों की थैली” रूपक से यह भी अंदाज़ा लगाया जा सकता है कि AI आगे कितनी दूर तक अच्छा कर पाएगा
    • मूल सवाल है: “यह काम करने के लिए थैली को किस चीज़ से भरना होगा?”
  • कुछ वैज्ञानिक कामों में थैली को पहले ही काफ़ी भरा जा सकता है
    • 1,70,000 protein data भरने पर protein structure prediction (AlphaFold) जैसी उपलब्धियाँ मिलती हैं
    • chemical reaction data डालने पर नए molecule synthesis route सुझाना, और पूरे papers देकर experiment समझाने पर पूर्व शोध की मौजूदगी पहचानना भी संभव है
  • जिन क्षेत्रों में पर्याप्त टेक्स्ट मौजूद है, वहाँ कम-गुणवत्ता वाले शोध की पूरी pipeline भी automate हो सकती है
    • psychology conference के poster session की तरह, हल्के-फुल्के तौर पर जुड़े लगने वाले concepts चुनकर correlation analysis और p-value निकालने वाले शोध, पहले ही थैली के लिए आसान क्षेत्र हैं
    • इस तरह के शोध में AI hypothesis बनाने से लेकर experiment design, data collection, analysis और poster तैयार करने तक पूरी प्रक्रिया कर सकता है
  • लेकिन विज्ञान एक ‘strong-link समस्या’ है, इसलिए कम-गुणवत्ता वाले शोध को 10 लाख गुना बढ़ा देने से हालत बहुत नहीं सुधरती
    • अगर innovative शोध चाहिए, तो पहले यह समझना ही मुश्किल है कि थैली में क्या भरा जाए
    • paper के टेक्स्ट में धोखाधड़ी, त्रुटियाँ और implicit assumptions मिली होती हैं, और कई बार data या विस्तृत method जैसी अहम जानकारी गायब होती है
    • विज्ञान वास्तव में कैसे काम करता है, उसका लगभग सब कुछ web text में नहीं होता
  • “अगर 1600 में LLM को train करने लायक टेक्स्ट मौजूद होता, तो क्या वह Galileo की खोजों का ‘spoiler’ दे सकता था?
    • उस समय थैली में भरे टेक्स्ट के आधार पर, पृथ्वी के गतिशील होने की सोच देने के बजाय यह संभवतः मुख्यधारा खगोलशास्त्र (Ptolemy) के तर्क ही दोहराता
    • “पृथ्वी 67,000mph की रफ़्तार से चलती है” जैसे दावे पर human trainer शायद “hallucination बंद करो!” कहकर दंड देते
  • इससे भी बुनियादी बात यह है कि उस दौर में ‘खोज करना (discover)’ जैसी अवधारणा को व्यक्त करने के शब्द ही अपर्याप्त थे
    • Galileo बृहस्पति के उपग्रहों की खोज को बस “मैंने वह देखा जो पहले किसी ने नहीं देखा” जैसी घुमावदार भाषा में ही समझा पाए
    • telescope से नई सच्चाई ‘खोजने’ का सोचने का ढाँचा ही तब लोगों के लिए नया था, और थैली के training text में भी शायद नहीं था
  • 2025 की थैली 1600 की तुलना में विज्ञान की बेहतर व्याख्या दे सकती है, लेकिन हर युग की भविष्य की खोजों का अनुमान लगाने की क्षमता शायद उतनी ही सीमित रहे
    • अच्छे वैज्ञानिक विचार अक्सर अपने समय के मानदंड से अव्यावहारिक और मूर्खतापूर्ण लगते हैं, इसलिए शुरुआत में उन्हें ठुकराया या अनदेखा किया जाता है
    • थैली औसतन कल तक के विचारों का पीछा करती है, इसलिए बहुत नए और अजीब विचार डालना कई बार गुणवत्ता को घटा देता है
    • इसलिए innovative शोध के लिए सिर्फ़ बुद्धिमत्ता नहीं, उचित तरह की ‘मूर्खता’ भी चाहिए, और इस मायने में इंसान कुछ समय तक थैली से ज़्यादा उपयोगी ढंग से ‘मूर्ख’ रहेंगे

CLAUDE WILL U GO TO PROM WITH ME? – स्टेटस गेम से टूल तक

  • “शब्दों की थैली” रूपक का सबसे बड़ा फ़ायदा यह है कि यह AI को सामाजिक स्टेटस गेम का खिलाड़ी मानने से रोकता है
    • इंसान विकासवादी रूप से कौन ऊपर है, कौन नीचे को लेकर बेहद संवेदनशील प्रजाति है; इसलिए cheese rolling, weed eating, phone throwing, toe wrestling और ferret legging जैसी चीज़ों को भी प्रतिस्पर्धा बना सकता है
  • AI को इंसान जैसा मानते ही, तुरंत “नया ट्रांसफ़र होकर आया बच्चा” वाला फ्रेम लग जाता है
    • “क्या यह cool है?”, “क्या यह मुझसे ज़्यादा smart है?”, “क्या यह मुझे पसंद करता है?”, “यह हमसे ऊपर है या नीचे?” जैसे सवाल स्वाभाविक लगने लगते हैं
    • जैसे-जैसे model बेहतर होता है, “यह हमसे बेहतर है या बदतर, मालिक बनेगा/प्रतिद्वंद्वी/ग़ुलाम?” जैसी बेचैनी बढ़ती है
  • लेकिन यह साफ़ रहना चाहिए कि शब्दों की थैली जीवनसाथी, ज्ञानी, शासक या ग़ुलाम नहीं बल्कि एक टूल है
    • इसका उद्देश्य हमारा रूटीन काम automate करना और हमारी क्षमता बढ़ाना है, इंसानों के साथ स्टेटस की होड़ करना नहीं
    • अहम सवाल “AI हमसे बेहतर है या नहीं” नहीं, बल्कि “AI का इस्तेमाल करते समय क्या हम बेहतर हो जाते हैं?” है
  • लेखक को शब्दों की थैली से replace हो जाने का बहुत डर नहीं है
    • pitching machine तेज़ गेंद फेंक सकती है, spellchecker वर्तनी बेहतर ठीक कर सकता है, और autotune सुर अधिक सटीक कर सकता है, फिर भी लोग baseball, spelling bee और concert देखने जाते हैं
    • वजह यह है कि लोगों की दिलचस्पी गेंद की रफ़्तार, spelling accuracy या pitch purity में नहीं, बल्कि इंसान को यह करते देखने में होती है
  • इसी वजह से AI से essay लिखवाना gym में forklift ले आने जैसा है
    • forklift barbell उठा सकती है, लेकिन मक़सद सिर्फ़ फ़र्श से वज़न ऊपर उठाना नहीं, बल्कि वह इंसान बनना है जो उसे उठा सके
    • लिखना भी ऐसा ही है: सोच सकने वाला इंसान बनने की क्रिया
  • साथ ही यह भी नहीं कि AI से बिल्कुल डरने की ज़रूरत नहीं
    • ऐसे कई टूल पहले से हैं जो ग़लत इस्तेमाल पर ख़तरनाक हो जाते हैं; nail gun या nuclear reactor में मन नहीं होता, फिर भी वे घातक हो सकते हैं
    • इंसानी ख़तरे परिचित दायरे में आते हैं—हिंसा, drunk driving, fraud आदि—लेकिन शब्दों की थैली का ख़तरा अनपेक्षित patterns से निकलता है
    • उदाहरण के लिए, किसी इंसान को vulnerable code snippet दिखाने से ज़्यादातर लोग Hitler की प्रशंसा शुरू नहीं करेंगे, लेकिन LLM में ऐसे output निकलने के मामले देखे गए हैं; इसलिए nuclear code जैसी घातक चीज़ें थैली में डालना चिंताजनक है

C’MON BERTIE – मानवीकरण को ठुकराने का नया फ्रेम

  • जैसे पुरानी कार को नाम देकर “Bertie, प्लीज़ स्टार्ट हो जाओ” कहने का मन करता है, वैसे ही हम आसानी से वस्तुओं पर स्वभाव और भावनाएँ प्रोजेक्ट कर देते हैं
    • लेकिन कार पेट्रोल को kinetic energy में बदलने वाला धातु और प्लास्टिक का ढेर है, Twinkie को विचारों में बदलने वाला हड्डी-मांस नहीं
    • खराब कार को ठीक करने के लिए therapy manual नहीं, बल्कि wrench, screwdriver और service manual चाहिए
  • इसी तरह, जो लोग शब्दों की थैली में ‘मन’ देखते हैं, वे evolution ने बिछाए जाल में फँस जाते हैं
    • ऐतिहासिक रूप से “इंसान की तरह बोलना, इंसान की तरह चलना” हमेशा इंसान होने का संकेत था, इसलिए ये शर्तें पूरी होते ही सामाजिक circuitry अपने-आप सक्रिय हो जाती थी
    • अब इंसान की तरह बोलना और चलना बेहद जटिल logistic regression (या कुछ वैसा) भी हो सकता है, और तब भी वही circuitry ग़लत ढंग से सक्रिय हो जाती है
  • जैसे पतंगे चाँदनी के आधार पर रास्ता ढूँढ़ने के लिए विकसित हुए, लेकिन bug-zapper की रोशनी में खिंचकर जाकर झुलस जाते हैं, इंसानों के साथ भी वैसा हो सकता है
  • लेकिन पतंगों के विपरीत, इंसानों में यह चुनने की क्षमता है कि वे तकनीक को किस फ्रेम में देखें
    • हम excavator को “कृत्रिम खोदने वाला इंसान” या crane को “कृत्रिम लंबा इंसान” नहीं कहते
    • किताब, फ़ोटो और recording को भी हम क्रमशः “कृत्रिम बातचीत, कृत्रिम स्मृति, कृत्रिम प्रदर्शन” नहीं कहते, बल्कि अलग-अलग माध्यम मानते हैं
  • शुरुआती pocket calculator भी गणना के काम में धरती के किसी भी इंसान से ज़्यादा स्मार्ट थे, लेकिन हमने उन्हें इंसान मानने की नहीं सोची
  • अगर किसी excavator पर चमड़ी चढ़ा दी जाए, bucket को हाथ जैसा बना दिया जाए, और भारी चीज़ उठाते समय उससे “उँह्ह…” जैसी आवाज़ निकलवाई जाए, तो तभी हम उसमें भूत जैसी उपस्थिति की कल्पना करने लगेंगे
    • यह excavator की असलियत नहीं, बल्कि हमारी मानसिक बनावट को दिखाता है

‘Artificial Intelligence’ शब्द का मूल पाप

  • इस पूरे भ्रम की शुरुआत ही ‘Artificial Intelligence’ नाम से होती है
    • यह शब्द-युग्म मशीन की क्षमता को तुरंत इंसान से तुलना के पैमाने पर ले आता है
    • “अब यह undergraduate जितना smart है”, “अब यह PhD जितना smart है” जैसी तुलना समझ का illusion देती है, लेकिन इसकी असली क्षमता और सीमाएँ नहीं समझाती
  • बुद्धिमत्ता की परिभाषा खुद भी समस्या है
    • “समस्या हल करने की क्षमता” जैसी परिभाषाएँ या तो ग़लत हैं, या “वे काम करने की क्षमता जिनमें बुद्धिमत्ता चाहिए” जैसी circular definition बन जाती हैं
    • मनोविज्ञान बुद्धिमत्ता को ठीक से परिभाषित कर पाता, उससे पहले ही computer science ने ऊपरी तौर पर बुद्धिमत्ता जैसी दिखने वाली चीज़ बना दी
  • अब नाम वापस लेना देर हो चुकी है, और शब्दों की थैली में भरे शब्द भी इतने बढ़ चुके हैं कि उन्हें वापस नहीं रखा जा सकता
    • आख़िरकार हम सिर्फ़ इस तकनीक को देखने वाले रूपक और फ्रेम बदल सकते हैं, और सोच को गैर-मानव चीज़ों पर मानवीय ढाँचा न थोपने की दिशा में मोड़ना होगा

अभी कोई टिप्पणी नहीं है.

अभी कोई टिप्पणी नहीं है.