5 पॉइंट द्वारा GN⁺ 2025-07-07 | 4 टिप्पणियां | WhatsApp पर शेयर करें
  • लेख के लेखक का मानना है कि AGI (सामान्य कृत्रिम बुद्धिमत्ता) निकट भविष्य में आने वाली नहीं है
  • LLM (बड़े भाषा मॉडल) प्रभावशाली क्षमताएँ दिखाते हैं, लेकिन उनमें मनुष्यों की तरह निरंतर सीखने और धीरे-धीरे बेहतर होने की क्षमता की कमी है
  • मौजूदा LLM में user feedback के ज़रिए customization करने या context जमा करने की सीमाएँ हैं, और यही वास्तविक white-collar automation में बड़ी बाधा है
  • computer use और multimodal data जैसी व्यावहारिक चुनौतियों में data की कमी, लंबे task duration और तकनीकी कठिनाई के कारण प्रगति धीमी रहने की संभावना है
  • लंबी अवधि में online learning संभव होने पर बहुत तेज़ बदलाव आ सकता है, लेकिन लेखक को नहीं लगता कि यह अगले 10 वर्षों में आसानी से साकार होगा

इंट्रो और AGI के संभावित समय पर चर्चा

  • लेखक ने AGI तक पहुँचने के समय पर कई विशेषज्ञों के साथ हुई चर्चाओं के आधार पर अपना दृष्टिकोण प्रस्तुत किया है
  • कुछ लोग 2 साल बाद, तो कुछ 20 साल बाद AGI आने का अनुमान लगाते हैं, लेकिन लेखक के अनुसार जून 2025 तक AGI का आगमन निकट नहीं दिखता

निरंतर सीखने (Continual Learning) की सीमाएँ

  • बहुत से लोग मानते हैं कि मौजूदा AI तकनीक भी आर्थिक रूप से इंटरनेट से अधिक परिवर्तनकारी है, लेकिन लेखक इससे सहमत नहीं हैं
  • Fortune 500 कंपनियाँ LLM का उपयोग कामकाज को मूल रूप से बदलने में इसलिए नहीं कर पा रहीं क्योंकि management conservative है, बल्कि इसलिए क्योंकि मौजूदा AI में निरंतर सीखने की कमी है
  • लेखक ने विभिन्न LLM-आधारित टूल खुद बनाकर और इस्तेमाल करके देखा है, और पाया है कि दोहराए जाने वाले कामों में LLM लगभग 5/10 स्तर का प्रदर्शन करते हैं, लेकिन उनमें क्रमिक सुधार की क्षमता कम है
  • मनुष्य context बनाते हैं, अपनी विफलताओं का विश्लेषण करते हैं, और दोहराव के ज़रिए छोटे-छोटे सुधार सीखते हैं, जिससे उनकी productivity बढ़ती है; लेकिन LLM में high-level feedback पहुँचाने का रास्ता नहीं है, और सिर्फ prompt बदलने से मनुष्य-जैसी ‘learning’ संभव नहीं होती
  • RL (RLHF) fine-tuning मौजूद है, लेकिन यह मनुष्यों जैसी अनुकूलनशील और जैविक सीखने की प्रक्रिया से अभी भी काफी दूर है, और यही वास्तविक automation में एक निर्णायक बाधा है
  • AI मॉडल अभी इस तरह विकसित नहीं हो पाए हैं कि वे मानव कर्मचारियों की तरह काम के दौरान समृद्ध context इकट्ठा करें, उसे याद रखें और उसके साथ विकसित हों
  • एक session के भीतर कुछ context learning हो सकती है, लेकिन session खत्म होते ही सीखा गया पूरा context खो जाता है
  • long-term memory (rolling context window) जैसे समाधान आज़माए जा रहे हैं, लेकिन समृद्ध अनुभवजन्य ज्ञान का सारांश brittle होता है, और text-based domain के बाहर तो यह और भी कम प्रभावी है
  • अगर AI की प्रगति मौजूदा स्तर पर ही ठहर जाए, तब भी कई white-collar jobs को इस तकनीक से बदलना कठिन होगा, क्योंकि मनुष्यों की context learning क्षमता अभी भी बड़ी ताकत है
  • यानी जब निरंतर सीखने की तकनीक वास्तव में लागू होगी, तभी AI का मूल्य असतत रूप से तेज़ी से बढ़ेगा; और अंततः यह संभव होने पर कई instances के बीच learning share करके AI मनुष्यों से तेज़ी से superintelligence की ओर बढ़ सकता है
  • लेकिन शोध प्रयोगशालाओं के पास ऐसी प्रेरणा भी होती है कि वे किसी breakthrough technology को पूरी तरह परिपक्व होने से पहले उसका अधूरा version जारी करें, इसलिए निरंतर सीखने की वास्तविक छलांग से पहले उसके संकेत दिखाई देने की संभावना है

computer use और automation की व्यावहारिक कठिनाइयाँ

  • Anthropic के शोधकर्ताओं के साथ बातचीत में लेखक ने यह अनुमान सुना कि 2026 के अंत तक भरोसेमंद computer use agent आ सकते हैं, लेकिन लेखक इस पर संदेह करते हैं
  • आज भी computer use agents मौजूद हैं, लेकिन उन्हें वास्तविक काम में इस्तेमाल करने की दक्षता कम है
  • tax filing जैसे वास्तविक कार्यों को automate करने के लिए कई systems, लंबे समय तक agent execution, और विविध multimodal data processing की ज़रूरत होती है, जिससे training और verification की प्रक्रिया बहुत धीमी हो जाती है
  • मौजूदा text pretraining data (यानी language model के लिए इस्तेमाल होने वाले बड़े इंटरनेट दस्तावेज़) के विपरीत, multimodal computer use datasets कम हैं, इसलिए उच्च-विश्वसनीयता वाले agents बनाने में समय लगेगा
  • नए और innovative algorithm प्रस्तावित होने पर भी उन्हें वास्तविक field deployment तक पहुँचाने के लिए कई वर्षों की engineering tuning चाहिए होती है, इसलिए computer use क्षेत्र में प्रगति काफ़ी धीमी रहने की संभावना है

reasoning क्षमता की उन्नति और सीमाएँ

  • Gemini 2.5 जैसे नए मॉडल speaker intent की व्याख्या, logical self-checking, और context-sensitive response में वास्तविक reasoning क्षमता दिखाते हैं
  • Claude Code जैसे सिस्टम दिए गए spec के आधार पर काम करने वाला code तेज़ी से बना देते हैं, इसलिए यह साफ़ है कि कई domains में शुरुआती ‘general intelligence’ के संकेत दिखाई दे रहे हैं
  • जिन domains में शीर्ष-स्तरीय LLM मॉडल अपनी क्षमता दिखाते हैं, वहाँ वे काफ़ी प्रभावशाली परिणाम भी देते हैं

अल्पकालिक और दीर्घकालिक AI/AGI पूर्वानुमान

  • लेखक ज़ोर देकर कहते हैं कि वे अपने पूर्वानुमानों को probabilistic नज़रिए से देखते हैं, और इसलिए तैयारी करना अब भी उचित है
  • वे नीचे दिए गए बिंदुओं पर 50% संभावना के साथ दांव लगाने को तैयार हैं
    • 2028 तक: AI छोटे व्यवसायों की tax filing की पूरी प्रक्रिया end-to-end संभाल सके, इसकी संभावना है
      • वर्तमान computer use क्षमता अभी GPT-2 स्तर पर ठहरी हुई है, और data की कमी व लंबे time horizon के कारण optimization कठिन है
      • 2026~2027 में शानदार demos दिखाई दे सकते हैं, लेकिन लेखक का अनुमान है कि पूरी तरह autonomous तरीके से लंबे समय तक जटिल tasks करने का स्तर हासिल करना कठिन होगा
    • 2032 तक: AI मनुष्यों की तरह काम करते हुए स्वाभाविक और क्रमिक रूप से सीख सके, और कुछ महीनों की वास्तविक कार्य-अनुकूलन के बाद मनुष्यों जितना context, preference और know-how आत्मसात कर सके, ऐसा समय आ सकता है
      • भले ही online continual learning अभी निकट न दिख रहा हो, लेकिन 7 साल के दौरान कोई मूलभूत breakthrough आ सकता है

AI प्रगति की सीमाएँ और भविष्य की दिशा

  • AGI के साकार होने का समय probability के लिहाज़ से बहुत व्यापक रूप से distributed (log-normal) है, और पिछले 10 वर्षों में AI की प्रगति training compute में वृद्धि से गहराई से जुड़ी रही है
  • compute में वृद्धि 2030 के बाद सीमा तक पहुँच सकती है, और तब algorithmic innovation bottleneck बन जाएगी
  • यदि कोई क्रांतिकारी paradigm shift नहीं आता, तो हर वर्ष AGI के आने की संभावना समय के साथ घट भी सकती है
  • अगर ‘ज़्यादा लंबे समय’ वाला अनुमान सही निकलता है, तो 2030~2040 तक रोज़मर्रा की दुनिया में बहुत बड़ा बदलाव न भी हो, लेकिन दूसरी ओर अगर AI मौजूदा सीमाओं को पार कर लेता है, तो बहुत ही उग्र परिवर्तन हो सकते हैं

4 टिप्पणियां

 
mirea0 2025-07-08

मेरा मानना है कि स्थायित्व और learning पर भौतिक सीमाएँ होने की वजह से AGI साकार नहीं हो पा रहा है
यह सचमुच भौतिक सीमाओं की वजह से है, तकनीकी क्षमता की कमी की वजह से नहीं
मेरा यह भी मानना है कि अगर ऐसी सीमाएँ न रखी जाएँ और AGI के रूप में एक कदम आगे बढ़ा जाए, तो फिर उसे वापस मोड़ना मुश्किल होगा, और AI डेवलपर्स भी यह जानते हैं, इसलिए वे इसे सिर्फ service के हिसाब से विकसित कर रहे हैं, उन सीमाओं को हटाने की कोशिश नहीं कर रहे हैं

 
iolothebard 2025-07-08

मैं आपसे पूरी तरह सहमत हूँ!

 
GN⁺ 2025-07-07
Hacker News राय
  • “मुझे लगता है कि यह वास्तव में एक महत्वपूर्ण बिंदु है कि LLMs में एक बुनियादी समस्या है: वे समय के साथ इंसानों की तरह क्रमिक रूप से बेहतर नहीं होते। कई कामों में मॉडल का बेस प्रदर्शन औसत इंसान से बेहतर हो सकता है, लेकिन मॉडल को high-dimensional feedback देने का कोई तरीका नहीं है, इसलिए वह box से बाहर निकलते ही उससे आगे सुधार नहीं कर पाता। यह मुझे neural networks में अक्सर दिखने वाली सीमा लगती है। Waymo Driver जैसे सिस्टम इस समस्या से बचते हैं। उदाहरण के लिए, Waymo में अगर driving के दौरान कोई समस्या आती है, तो वे कई simulations चलाकर उस समस्या-स्थिति के अलग-अलग रूप बनाते हैं और फिर Driver को दोबारा train करते हैं। सटीक तरीका सार्वजनिक नहीं है, लेकिन उन्होंने कहा है कि यह end-to-end neural network से अलग संरचना है। Waymo ने अंदरूनी प्रोजेक्ट के रूप में end-to-end neural network आज़माया था, लेकिन वह मौजूदा सिस्टम से बेहतर नहीं था, इसलिए अब वे कुछ और इस्तेमाल कर रहे हैं, और वास्तव में क्या, यह बहुत कम लोग जानते हैं।”
    • “भले ही LLM इंसानों की तरह धीरे-धीरे विकसित न हों, फिर भी Prolog जैसे tools का उपयोग करके उनकी क्षमताएँ बढ़ाई जा सकती हैं। मुझे लगता है AI का अगला चरण यह है कि LLM बेहतर tools या strategies इस्तेमाल कर सके। उदाहरण के लिए, logical rules, heuristic algorithms, और fine-tuned LLM agents को एक architecture में जोड़कर LLM के tools के रूप में इस्तेमाल करने वाली संरचना परिपक्व होगी। यह भी ध्यान देना चाहिए कि आर्थिक दबाव, खासकर military AI development को आगे बढ़ा रहा है। Prolog systems का उपयोग करके LLM database में facts जोड़ सकता है, नए relationships infer कर सकता है, और लगातार सीख सकता है। खोज के लिए नए models या approaches सुझाने वाले heuristics भी जोड़े जा सकते हैं।”
    • “जहाँ तक मैं जानता हूँ, Waymo ऐसा सिस्टम है जिसे इंसानों ने heuristics, rules, neural networks आदि कई techniques को मिलाकर बनाया है। यह पूरी तरह end-to-end neural network नहीं है। ‘AIish’ जैसा शब्द अच्छा है, क्योंकि design के हिसाब से यह AGI से काफी दूर है।”
    • “मुझे हैरानी होती है कि बहुत से लोग यह सवाल लगभग पूछते ही नहीं: क्या मौजूदा state-of-the-art AI पहले से ही इंसानों को बहुत अधिक सक्षम नहीं बना रहा? Self-improvement की geometric acceleration मुझे उल्टा डरावनी लगती है। अगर मान लें कि सब कुछ सही भी हुआ, तब भी इंसान शायद बौद्धिक प्रतिस्पर्धा में नंबर 1 की जगह बनाए नहीं रख पाएगा, और वह स्वीकार करना कठिन turning point होगा। अगर सच में self-improvement चाहिए, तो इंसानों को खुद के बेकार हो जाने की संभावना का आदी होना पड़ेगा।”
    • “अगर neural networks की सीमाओं में रुचि है, तो John Carmack का हालिया talk देखना अच्छा रहेगा। YouTube लिंक में लगभग 30 मिनट के आसपास वह इस मुद्दे को सीधे उठाते हैं।”
    • “ज़्यादातर AI बहुत बड़े डेटा पर train होते हैं, इसलिए अगला बड़ा dataset तैयार होने तक लंबा समय लगना भी एक सीमा है।”
  • “जो लोग कहते हैं कि AGI (सामान्य कृत्रिम बुद्धिमत्ता) बहुत जल्द आने वाली है, वे आमतौर पर 1. कुछ बेचने की कोशिश कर रहे होते हैं, या 2. अपनी ही कहानी में डूबे होते हैं, या 3. किसी और वजह से ज़रूरत से ज़्यादा उत्साहित होते हैं, या 4. तीनों ही। LLM design के हिसाब से language में मजबूत हैं और text summarization ठीक कर लेते हैं, लेकिन logic में कमजोर हैं और spatial reasoning में बहुत खराब। इसलिए वे concepts को जोड़ने में भी अच्छे नहीं हैं। अगर किसी प्रसिद्ध LLM से पूछो कि ‘किसी भी क्षेत्र का सबसे कठिन unsolved problem क्या है’, तो वह science magazine जैसी language में जवाब दे देगा, लेकिन उसमें सूक्ष्म मगर निर्णायक गलतियाँ भरी होंगी; जवाब देखने में विश्वसनीय लगेगा, पर असल में बेकार होगा।”
    • “LLM बस training dataset को compress करके text-based interactive retrieval functionality देने वाला एक tool है।”
    • “मुझे लगता है ‘अस्पष्ट है’ यही मुख्य बात है। LLM समग्र रूप से काफ़ी intelligent हैं, इसलिए मेरी नज़र में हम AGI युग में प्रवेश कर चुके हैं, लेकिन शायद बहुत से लोग AGI को ‘superhuman AI’ के रूप में देखते हैं। उस मानक से देखें तो हम अभी वहाँ नहीं पहुँचे हैं, और आगे भी पहुँचना आसान नहीं होगा। मेरे लिए तो अभी ही AGI युग है।”
    • “LLM हमारे बनाए हुए text world में सचमुच शानदार काम करते हैं, लेकिन वे truth-seeking entities नहीं हैं। जीवित प्राणी घातक गलती करने पर मर सकते हैं, लेकिन AI गलत होने पर बस हज़ारों tokens और उत्पन्न करता रहता है।”
    • “मैं इस बात से सहमत हूँ कि truth-seeking की कमी LLMs की समस्या है, लेकिन इंसानों में भी यह बहुत दिखता है, इसलिए यह कोई बहुत बड़ी आलोचना नहीं लगती। अगर AGI की मूल परिभाषा लें—लगभग सभी कामों में median human से बेहतर प्रदर्शन—तो हम काफ़ी करीब हैं, और अगले 5 साल में non-physical tasks में expert-level competition संभव लगती है (physical tasks के लिए 5–10 साल लग सकते हैं)। यह सही है कि LLM language में मजबूत हैं, लेकिन मुझे लगता है कि यही intelligence level को भी काफी दर्शाता है। Spatial thinking में उनकी कमजोरी को लेकर जो कहा जाता है, उसमें कुछ अतिशयोक्ति भी है; वे पहले के spatial reasoning–specialized models से बहुत बेहतर हो चुके हैं। इंसानों से कमज़ोर होने के बावजूद, यह तथ्य कि latest models को robots पर लगाया जा रहा है और वे वास्तव में काम कर रहे हैं, AI के हिसाब से तेज़ प्रगति दिखाता है।”
    • “मेरे हिसाब से AGI की परिभाषा यह है: अगर AI किसी क्षेत्र के कम-से-कम निचले 5% professionals से लगभग सभी कामों में बेहतर है, तो AGI हासिल माना जा सकता है। इंसानी बौद्धिक क्षमता के निचले 5 percentile को भी मैं ‘intelligence’ कहने योग्य मानता हूँ, इसलिए अगर AI इस स्तर से ऊपर जाकर मानवता के बड़े हिस्से से लगभग हर क्षेत्र में बेहतर है, तो उसे AGI कहना चाहिए। यह किसी एक domain में नहीं, बल्कि सभी बौद्धिक कार्यों में बेहतर AI होना चाहिए।”
  • “मैं बस यही उम्मीद करता हूँ कि AGI इतनी जल्दी न आए। सामाजिक और राजनीतिक रूप से हम बिल्कुल तैयार नहीं हैं, और ज़रा सी चूक से मानवता का भविष्य dystopia की तरफ़ जा सकता है। लेकिन अभी भी, अगर AI में थोड़ा-सा power consumption कम हो जाए और मामूली सुधार हो जाए, तो वह कई क्षेत्रों में बेहद उपयोगी हो जाएगा, और इतना ही भी मानव समाज अभी पूरी तरह अपनाने के लिए तैयार नहीं है। समस्या यह है कि foundation models बनाने वाली कंपनियों के पास अब तक झोंके गए पैसे की वसूली का कोई साफ़ तरीका कम ही दिखता है, इसलिए या तो कोई बहुत बड़ा breakthrough चाहिए, या फिर कई क्षेत्रों में ज़बरदस्ती AI ठूंसना पड़ेगा।”
    • “मैं भी यही महसूस करता हूँ, और सच में चाहता हूँ कि यह bubble जल्द फूटे। खबरें हैं कि Meta ने augmented reality में $100 billion निवेश किया है; उस बोर्ड पर बैठा वह आदमी विज्ञापन लागत घटाने के बजाय बस लापरवाह दाँव पर दाँव लगाए जा रहा है। Altman जैसे लोग भी अब ऐसी राह चुन चुके हैं जहाँ पीछे हटना संभव नहीं, और मौका मिलते ही जितना हो सके पैसा निकालने की कोशिश करेंगे। हम सब बस यही चाह सकते हैं कि ये लोग पुराने dot-com bubble की तरह विफल हों।”
    • “AI में निवेश इतना बड़ा है कि केवल depreciation cost ही सभी AI कंपनियों की कुल revenue से भी अधिक हो सकती है, और बहुत से लोग इन fixed costs की वसूली के सवाल को नज़रअंदाज़ कर रहे हैं।”
    • “अगर एक AI से ही लगभग बिना कर्मचारियों के पूरे industry को replace किया जा सकता है, तो लागत वसूलना बहुत आसान होगा। यह भारी मुनाफ़ा दे सकता है।”
    • “अगर आप मानते हैं कि low birth rate की समस्या सच में गंभीर है, तो AGI का जल्द आना उल्टा एक समाधान हो सकता है। हमेशा population growth पर आधारित आर्थिक समस्या-समाधान वाले paradigm पर फिर से विचार करने की ज़रूरत है।”
    • “क्या AGI का इंसानी बुद्धि से बिल्कुल समान होना ज़रूरी है? अगर कुछ functions में वह बेहतर हो और कुछ में कमज़ोर, तो क्या उसे AGI माना जा सकता है? इस पर सोचने की ज़रूरत है।”
  • “मुझे तो यह भी यक़ीन नहीं कि AGI जल्द आएगा; बल्कि यह भी पक्का नहीं कि वह सिद्धांततः संभव है या नहीं। कम-से-कम पारंपरिक computer hardware पर तो मुझे यह मुश्किल लगता है। जानकारी को सुंदर ढंग से दोहराने की क्षमता को मैं intelligence की परिभाषा या माप नहीं मानता। अगर कभी सच्ची artificial intelligence बनाई गई, तो संभव है कि पहली बार सामने आने पर उसकी बुद्धि इंसानी मानकों से बहुत कम हो, लेकिन वह बाहरी मदद के बिना खुद सीखने वाली वास्तविक AI हो।”
    • “जब तक कोई यह नहीं मानता कि मानव general intelligence किसी अलौकिक और immeasurable तत्व से आती है, तब तक AGI-असंभवता का तर्क टिकता नहीं। आखिर इंसान भी एक मशीन ही है, इसलिए दिमाग को biology के अलावा किसी और रूप में replicate किया जा सकता है। शायद पहली AGI पेट्री डिश में उगा हुआ दिमाग हो, जिसके साथ सिर्फ Python API जुड़ा हो; या शायद वह silicon-based हो।”
    • “एक और पहलू पर भी सोचना चाहिए। अगर tools मेरी अपनी बुद्धि से ज़्यादा बुद्धिमान हो जाएँ, तो उससे कैसे निपटना है? ऑनलाइन अब ऐसी स्थिति भी बन रही है कि किसी सहकर्मी के सवाल का जवाब chatgpt से लिया जाता है, और वह सवाल खुद भी chatgpt ने बनाया होता है, तो अब किसने क्या किया, यह किसी को नहीं पता चलता।”
    • “मेरे विचार से intelligence के विस्तार की सीमा compute resources से आती है। किसी system को सही मॉडल करने के लिए ज़रूरी computation उसकी complexity या chaos के साथ लगभग exponentials तरीके से बढ़ती है। इसलिए intelligence का प्रभाव मूलतः केवल सरल और व्यवस्थित systems में ही अच्छी तरह दिख सकता है। सबसे व्यावहारिक और मजबूत तरीका है variability को जितना हो सके हटाना। अंततः, चाहे वह superintelligence हो या नहीं, यही intelligence की असली सीमा है।”
    • “आपको यह असंभव क्यों लगता है, यह जानने में दिलचस्पी है।”
    • “AGI की कोई स्पष्ट परिभाषा या सहमति नहीं है। आगे भी AI जिन क्षेत्रों में अच्छा है—text/image generation, code generation आदि—वहीं क्रमिक सुधार जारी रहेंगे, ऐसा लगता है। यह कल्पना कि AI सबकी सारी समस्याएँ हल कर देगा और मानवता समुद्र तट पर utopian समृद्धि का आनंद लेगी, वास्तविकता पर आधारित नहीं है।”
  • “Dwarkesh का दृष्टिकोण प्रभावशाली है। वह कितनी दूर तक सोचते हैं, यह सुनना हमेशा रोचक होता है। उनके मुख्य तर्क के अनुसार adaptive learning ज़रूरी है, लेकिन इसके संकेत अभी दिख नहीं रहे। मेरा अनुमान है कि frontier labs उम्मीद कर रही हैं कि long context इस समस्या को हल कर देगा। अगर 10 million tokens का context हो, तो model internal state को अच्छी तरह संभालते हुए कई तरह के tasks कर सकता है, और फिलहाल लंबा context रखने वाले models में हर window के बीच quality variation बड़ी सीमा है। सवाल को यूँ रखें: क्या 2 साल के भीतर हमारे पास 10 million tokens से अधिक का उपयोगी context window हो सकता है? मुझे इसकी संभावना काफ़ी लगती है।”
    • “एक कंपनी थी जिसने दावा किया था कि उसने यह समस्या हल कर ली है, लेकिन अब वहाँ से बस खामोशी सुनाई देती है।”
    • “‘Long context’ कितनी लंबी होनी चाहिए, यह सवाल फिर भी बचता है। असल इंसान के मामले में context तो दशकों तक फैले multimodal input का होता है।”
    • “मुझे Demmis की इस बात पर भरोसा है कि AGI 10 साल के भीतर आ जाएगा। उन्होंने इस क्षेत्र को लंबे समय तक आगे बढ़ाया है, और OpenAI भी कुछ हद तक Demmis की research speed से डरकर बना था। मैं Demmis के अनुमान पर भरोसा करता हूँ कि लगभग 2035 तक ऐसा AGI आएगा जो लगभग सभी कामों में इंसानों के बराबर या उनसे बेहतर होगा।”
    • “मुझे पूरा विश्वास है कि जल्द (<5 साल) असली test-time learning लाई जाएगी। Alphaproof (Deepmind का IMO challenge) में यह तकनीक पहले से इस्तेमाल हुई है।”
  • “एक आँकड़े के अनुसार अमेरिका के 54% वयस्कों की reading ability राष्ट्रीय स्तर पर 6वीं कक्षा या उससे नीचे की है। इससे लगता है कि AGI शायद पहले ही आ चुकी है। Wikipedia लिंक
    • “मुझे समझ नहीं आता कि किसी देश की शिक्षा-व्यवस्था की विफलता का AGI से क्या संबंध है।”
    • “अच्छी बात कही। तब मैं यह भी देखना चाहूँगा कि LLM कपड़े धोए और बर्तन साफ करे। अगर robot body भी दे दी जाए, तब भी यह आसान नहीं होगा।”
    • “क्या सिर्फ पढ़ पाने की क्षमता ही AGI की पूरी शर्त है? यह सवाल उठता है।”
    • “आर्थिक दृष्टि से AGI की तुलना आम worker से, जैसे copy-editing जैसे खास काम करने वाले लोगों से करना ज़्यादा यथार्थवादी है। उस राष्ट्रीय औसत से तुलना कम उपयोगी है जिसे वास्तव में नौकरी मिलने की संभावना भी कम हो; focus job fitness पर होना चाहिए।”
    • “जो लोग निरक्षर हैं, वे भी ऐसे जबरदस्त challenges हल कर सकते हैं जो LLM नहीं कर पाते।”
  • “AI प्रगति पर चर्चा में समस्या यह मान लेना है कि भविष्य का AI इंसानों की ही तरह समस्याएँ हल करेगा। इस नज़रिये से continuous learning की कमी घातक flaw लगती है। लेकिन वास्तविकता यह है कि deep learning के विकास इतिहास में continuous learning कभी प्रमुख प्रेरक शक्ति नहीं रही; बड़े datasets और scaling ही सबसे सफल तरीका रहे हैं। अगर यह तर्क देना है कि continuous learning अनिवार्य है, तो cross-task learning approaches की सीमाएँ और वे क्षेत्र जहाँ AI कभी नहीं पहुँच पाएगा, उन्हें ठोस रूप से दिखाना होगा। लेखक ने RL flywheel (जब शानदार programming AI पर RL को बार-बार लागू करने से acceleration effect बनता है) को लेकर uncertainty की बात की है, इसलिए मुझे पूरा लेख कुछ ज़्यादा ही आत्मविश्वासी लगा।”
    • “Alphaproof ने हर समस्या पर AlphaZero-style test-time training का उपयोग करते हुए मिलती-जुलती समस्याएँ generate की थीं।”
    • “हो सकता है continuous learning deep learning के इतिहास में इसलिए महत्वपूर्ण न रही हो क्योंकि इस क्षेत्र के लोगों ने लक्ष्य ही अलग रखा। अगर उद्देश्य सबसे intelligent AI नहीं बल्कि सबसे useful और productive AI बनाना है, तो कभी-कभी intelligence से कमज़ोर लेकिन अपनी असफलताओं से सीखने वाली इकाई, जिद्दी genius से ज़्यादा मूल्यवान हो सकती है।”
  • “मेरे नज़रिये से मौजूदा LLMs ऐसी संरचना हैं जो इंसान क्या कहेगा, इसका अनुमान लगाती हैं, इसलिए उनकी intelligence/reasoning भी मानव स्तर के आसपास ही रहेगी। ज्ञान की चौड़ाई इंसान से अधिक हो सकती है, लेकिन intelligence या creativity इंसान के बराबर या कम रह सकती है। AI कंपनियाँ अनुमान लगाती हैं कि अगली पीढ़ी के LLMs नए insights देंगे और unsolved problems हल करेंगे, लेकिन मेरे हिसाब से असली insight के लिए ऐसा internal structure चाहिए जो निचले सिद्धांतों से concepts को स्वतंत्र रूप से फिर से बना सके। LLMs नई समझ की परतें नहीं बना सकते, इसलिए उनकी सीमा है। अगर सच में ऐसा तरीका आया जो मानव मस्तिष्क की तरह inputs से abstract understanding तक परत-दर-परत बनाता हो, तो शायद यह सीमा पार हो सके। कभी न कभी कोई नया AI paradigm आकर LLMs को पीछे छोड़ सकता है; सच कहूँ तो उम्मीद है मेरी यह भविष्यवाणी गलत निकले—या शायद ASI (superintelligent AI) थोड़ा डरावना है।”
    • “मान लें मानव-स्तर का AI performance आ भी जाए, तब भी machine इंसानों से अलग है: बस GPU performance बढ़ाकर तुरंत 10 गुना तेज़ intelligence मिल सकती है। केवल speed ही superhuman capability है। और एक ही system को कई बार चलाकर अलग-अलग approaches को एक साथ explore करके सबसे अच्छा रास्ता चुना जा सकता है। Verifiable tasks में यह बहुत बड़ा advantage है।”
    • “मौजूदा LLMs सिर्फ साधारण human sentence predictors नहीं रहे; वे अब गणित और programming समस्याओं में सही answers से जुड़े tokens की भविष्यवाणी करने की दिशा में विकसित हो रहे हैं।”
  • “ज़्यादातर चर्चा AI को लेकर निराशावादी है, लेकिन लेखक ने खुद कहा कि 2030 के शुरुआती वर्षों तक AGI हासिल होने की संभावना 50% है, और 2028 तक ASI के गलत दिशा में विकसित होने की संभावना के लिए तैयारी करनी चाहिए। यानी लेखक असल में AI को लेकर काफ़ी आशावादी है।”
    • “अगर 3 साल के भीतर ASI गलत तरीके से काम करने लगे, तो मुझे लगता है कोई भी तैयारी बेअसर हो जाएगी।”
  • “मुझे लगता है कि हाल में कोई भी model size सार्वजनिक नहीं कर रहा, यह अपने-आप में इस बात का संकेत है कि model training एक सीमा या दीवार से टकरा चुकी है।”
 
kandk 2026-02-17

अब तक फिर वही बात