- लेख के लेखक का मानना है कि AGI (सामान्य कृत्रिम बुद्धिमत्ता) निकट भविष्य में आने वाली नहीं है
- LLM (बड़े भाषा मॉडल) प्रभावशाली क्षमताएँ दिखाते हैं, लेकिन उनमें मनुष्यों की तरह निरंतर सीखने और धीरे-धीरे बेहतर होने की क्षमता की कमी है
- मौजूदा LLM में user feedback के ज़रिए customization करने या context जमा करने की सीमाएँ हैं, और यही वास्तविक white-collar automation में बड़ी बाधा है
- computer use और multimodal data जैसी व्यावहारिक चुनौतियों में data की कमी, लंबे task duration और तकनीकी कठिनाई के कारण प्रगति धीमी रहने की संभावना है
- लंबी अवधि में online learning संभव होने पर बहुत तेज़ बदलाव आ सकता है, लेकिन लेखक को नहीं लगता कि यह अगले 10 वर्षों में आसानी से साकार होगा
इंट्रो और AGI के संभावित समय पर चर्चा
- लेखक ने AGI तक पहुँचने के समय पर कई विशेषज्ञों के साथ हुई चर्चाओं के आधार पर अपना दृष्टिकोण प्रस्तुत किया है
- कुछ लोग 2 साल बाद, तो कुछ 20 साल बाद AGI आने का अनुमान लगाते हैं, लेकिन लेखक के अनुसार जून 2025 तक AGI का आगमन निकट नहीं दिखता
निरंतर सीखने (Continual Learning) की सीमाएँ
- बहुत से लोग मानते हैं कि मौजूदा AI तकनीक भी आर्थिक रूप से इंटरनेट से अधिक परिवर्तनकारी है, लेकिन लेखक इससे सहमत नहीं हैं
- Fortune 500 कंपनियाँ LLM का उपयोग कामकाज को मूल रूप से बदलने में इसलिए नहीं कर पा रहीं क्योंकि management conservative है, बल्कि इसलिए क्योंकि मौजूदा AI में निरंतर सीखने की कमी है
- लेखक ने विभिन्न LLM-आधारित टूल खुद बनाकर और इस्तेमाल करके देखा है, और पाया है कि दोहराए जाने वाले कामों में LLM लगभग 5/10 स्तर का प्रदर्शन करते हैं, लेकिन उनमें क्रमिक सुधार की क्षमता कम है
- मनुष्य context बनाते हैं, अपनी विफलताओं का विश्लेषण करते हैं, और दोहराव के ज़रिए छोटे-छोटे सुधार सीखते हैं, जिससे उनकी productivity बढ़ती है; लेकिन LLM में high-level feedback पहुँचाने का रास्ता नहीं है, और सिर्फ prompt बदलने से मनुष्य-जैसी ‘learning’ संभव नहीं होती
- RL (RLHF) fine-tuning मौजूद है, लेकिन यह मनुष्यों जैसी अनुकूलनशील और जैविक सीखने की प्रक्रिया से अभी भी काफी दूर है, और यही वास्तविक automation में एक निर्णायक बाधा है
- AI मॉडल अभी इस तरह विकसित नहीं हो पाए हैं कि वे मानव कर्मचारियों की तरह काम के दौरान समृद्ध context इकट्ठा करें, उसे याद रखें और उसके साथ विकसित हों
- एक session के भीतर कुछ context learning हो सकती है, लेकिन session खत्म होते ही सीखा गया पूरा context खो जाता है
- long-term memory (rolling context window) जैसे समाधान आज़माए जा रहे हैं, लेकिन समृद्ध अनुभवजन्य ज्ञान का सारांश brittle होता है, और text-based domain के बाहर तो यह और भी कम प्रभावी है
- अगर AI की प्रगति मौजूदा स्तर पर ही ठहर जाए, तब भी कई white-collar jobs को इस तकनीक से बदलना कठिन होगा, क्योंकि मनुष्यों की context learning क्षमता अभी भी बड़ी ताकत है
- यानी जब निरंतर सीखने की तकनीक वास्तव में लागू होगी, तभी AI का मूल्य असतत रूप से तेज़ी से बढ़ेगा; और अंततः यह संभव होने पर कई instances के बीच learning share करके AI मनुष्यों से तेज़ी से superintelligence की ओर बढ़ सकता है
- लेकिन शोध प्रयोगशालाओं के पास ऐसी प्रेरणा भी होती है कि वे किसी breakthrough technology को पूरी तरह परिपक्व होने से पहले उसका अधूरा version जारी करें, इसलिए निरंतर सीखने की वास्तविक छलांग से पहले उसके संकेत दिखाई देने की संभावना है
computer use और automation की व्यावहारिक कठिनाइयाँ
- Anthropic के शोधकर्ताओं के साथ बातचीत में लेखक ने यह अनुमान सुना कि 2026 के अंत तक भरोसेमंद computer use agent आ सकते हैं, लेकिन लेखक इस पर संदेह करते हैं
- आज भी computer use agents मौजूद हैं, लेकिन उन्हें वास्तविक काम में इस्तेमाल करने की दक्षता कम है
- tax filing जैसे वास्तविक कार्यों को automate करने के लिए कई systems, लंबे समय तक agent execution, और विविध multimodal data processing की ज़रूरत होती है, जिससे training और verification की प्रक्रिया बहुत धीमी हो जाती है
- मौजूदा text pretraining data (यानी language model के लिए इस्तेमाल होने वाले बड़े इंटरनेट दस्तावेज़) के विपरीत, multimodal computer use datasets कम हैं, इसलिए उच्च-विश्वसनीयता वाले agents बनाने में समय लगेगा
- नए और innovative algorithm प्रस्तावित होने पर भी उन्हें वास्तविक field deployment तक पहुँचाने के लिए कई वर्षों की engineering tuning चाहिए होती है, इसलिए computer use क्षेत्र में प्रगति काफ़ी धीमी रहने की संभावना है
reasoning क्षमता की उन्नति और सीमाएँ
- Gemini 2.5 जैसे नए मॉडल speaker intent की व्याख्या, logical self-checking, और context-sensitive response में वास्तविक reasoning क्षमता दिखाते हैं
- Claude Code जैसे सिस्टम दिए गए spec के आधार पर काम करने वाला code तेज़ी से बना देते हैं, इसलिए यह साफ़ है कि कई domains में शुरुआती ‘general intelligence’ के संकेत दिखाई दे रहे हैं
- जिन domains में शीर्ष-स्तरीय LLM मॉडल अपनी क्षमता दिखाते हैं, वहाँ वे काफ़ी प्रभावशाली परिणाम भी देते हैं
अल्पकालिक और दीर्घकालिक AI/AGI पूर्वानुमान
- लेखक ज़ोर देकर कहते हैं कि वे अपने पूर्वानुमानों को probabilistic नज़रिए से देखते हैं, और इसलिए तैयारी करना अब भी उचित है
- वे नीचे दिए गए बिंदुओं पर 50% संभावना के साथ दांव लगाने को तैयार हैं
- 2028 तक: AI छोटे व्यवसायों की tax filing की पूरी प्रक्रिया end-to-end संभाल सके, इसकी संभावना है
- वर्तमान computer use क्षमता अभी GPT-2 स्तर पर ठहरी हुई है, और data की कमी व लंबे time horizon के कारण optimization कठिन है
- 2026~2027 में शानदार demos दिखाई दे सकते हैं, लेकिन लेखक का अनुमान है कि पूरी तरह autonomous तरीके से लंबे समय तक जटिल tasks करने का स्तर हासिल करना कठिन होगा
- 2032 तक: AI मनुष्यों की तरह काम करते हुए स्वाभाविक और क्रमिक रूप से सीख सके, और कुछ महीनों की वास्तविक कार्य-अनुकूलन के बाद मनुष्यों जितना context, preference और know-how आत्मसात कर सके, ऐसा समय आ सकता है
- भले ही online continual learning अभी निकट न दिख रहा हो, लेकिन 7 साल के दौरान कोई मूलभूत breakthrough आ सकता है
AI प्रगति की सीमाएँ और भविष्य की दिशा
- AGI के साकार होने का समय probability के लिहाज़ से बहुत व्यापक रूप से distributed (log-normal) है, और पिछले 10 वर्षों में AI की प्रगति training compute में वृद्धि से गहराई से जुड़ी रही है
- compute में वृद्धि 2030 के बाद सीमा तक पहुँच सकती है, और तब algorithmic innovation bottleneck बन जाएगी
- यदि कोई क्रांतिकारी paradigm shift नहीं आता, तो हर वर्ष AGI के आने की संभावना समय के साथ घट भी सकती है
- अगर ‘ज़्यादा लंबे समय’ वाला अनुमान सही निकलता है, तो 2030~2040 तक रोज़मर्रा की दुनिया में बहुत बड़ा बदलाव न भी हो, लेकिन दूसरी ओर अगर AI मौजूदा सीमाओं को पार कर लेता है, तो बहुत ही उग्र परिवर्तन हो सकते हैं
4 टिप्पणियां
मेरा मानना है कि स्थायित्व और learning पर भौतिक सीमाएँ होने की वजह से AGI साकार नहीं हो पा रहा है
यह सचमुच भौतिक सीमाओं की वजह से है, तकनीकी क्षमता की कमी की वजह से नहीं
मेरा यह भी मानना है कि अगर ऐसी सीमाएँ न रखी जाएँ और AGI के रूप में एक कदम आगे बढ़ा जाए, तो फिर उसे वापस मोड़ना मुश्किल होगा, और AI डेवलपर्स भी यह जानते हैं, इसलिए वे इसे सिर्फ service के हिसाब से विकसित कर रहे हैं, उन सीमाओं को हटाने की कोशिश नहीं कर रहे हैं
मैं आपसे पूरी तरह सहमत हूँ!
Hacker News राय
अब तक फिर वही बात