- OpenAI ने 2018 के Charter में स्पष्ट रूप से एक ‘self-sacrifice clause’ दर्ज किया था, जिसमें कहा गया था कि अगर कोई दूसरा safety-केंद्रित प्रोजेक्ट AGI के करीब पहुंचता है, तो वह प्रतिस्पर्धा रोककर सहयोग करेगा
- Sam Altman के बयानों के सारांश वाली तालिका के अनुसार AGI तक पहुंचने का अनुमानित समय 2033 से घटकर 2025 तक बहुत तेजी से आ गया, और हाल में “हम पहले ही AGI बना चुके हैं” जैसी टिप्पणी भी सामने आई
- Arena.ai model leaderboard में Anthropic का Claude और Google का Gemini शीर्ष स्थानों पर हैं, जबकि OpenAI का GPT-5.4 6वें स्थान पर पीछे है
- लेख का तर्क है कि यह स्थिति charter में दिए गए उस मानदंड को पूरा करती है, जिसमें कहा गया है कि “अगर 2 साल के भीतर सफलता की संभावना 50% से अधिक रखने वाला प्रतिस्पर्धी उभरता है, तो सहयोग किया जाए”
- नतीजतन, OpenAI को charter के अनुसार प्रतिस्पर्धा रोककर सहयोग करना चाहिए, लेकिन व्यवहार में यह आदर्शवाद और आर्थिक प्रोत्साहनों के टकराव का उदाहरण बनकर सामने आता है
OpenAI Charter का self-sacrifice clause
- OpenAI के 2018 Charter में AGI विकास की प्रतिस्पर्धा से safety को नुकसान पहुंचने की आशंका व्यक्त की गई थी
- इसमें यह पंक्ति शामिल है कि “अगर कोई value alignment और safety को प्राथमिकता देने वाला प्रोजेक्ट AGI के करीब पहुंचता है, तो हम प्रतिस्पर्धा रोककर उसका समर्थन करेंगे”
- “2 साल के भीतर सफलता की संभावना 50% से अधिक” को इसके सामान्य सक्रियण-मानदंड के रूप में बताया गया है
- यह clause आज भी official site(openai.com/charter) पर प्रकाशित है और अब भी कंपनी की आधिकारिक नीति के रूप में बना हुआ है
Sam Altman की AGI भविष्यवाणियों में बदलाव
- तालिका के अनुसार Altman ने 2023 से 2026 के बीच AGI तक पहुंचने के समय को लगातार और नजदीक बताया
- मई 2023 में उन्होंने कहा था, “10 साल के भीतर विशेषज्ञ-स्तर से आगे निकल जाएंगे”,
- लेकिन 2024~2025 में यह “2025 में AGI”, और यहां तक कि “हम पहले ही AGI बना चुके हैं” जैसे बयानों तक पहुंच गया
- 2025 के बाद की भविष्यवाणियों का median लगभग 2 साल के भीतर है, जो charter के सक्रियण-मानदंड से मेल खाता है
- कुछ इंटरव्यू में “AGI से आगे ASI (superintelligence) की ओर बढ़ रहे हैं” जैसी अभिव्यक्ति भी आई
Arena.ai model ranking की तुलना
- Arena.ai leaderboard के शीर्ष 10 models में Anthropic का Claude-opus-4-6 पहले स्थान पर है, और Google का Gemini 3.1 तीसरे स्थान पर
- OpenAI का GPT-5.4-high छठे स्थान पर है, यानी प्रतिस्पर्धी मॉडलों की तुलना में कम आंका गया
- लेख में Anthropic और Google के models को ‘safety-केंद्रित और value-aligned’ बताया गया है, और उन्हें GPT के compatible alternatives माना गया है
क्या प्रतिस्पर्धा रोकने की शर्तें पूरी हो चुकी हैं?
- AGI विकास का समय 2 साल के भीतर सिमटने और प्रतिस्पर्धी मॉडल आगे होने की स्थिति में charter की “प्रतिस्पर्धा रोकने और सहयोग” वाली शर्त पूरी मानी गई है
- Arena.ai AGI को मापने के लिए उपयुक्त है या नहीं, इस पर बहस हो सकती है, लेकिन charter की मूल भावना ‘arms race से बचना’ है
- इसलिए निष्कर्ष यह निकलता है कि OpenAI को Anthropic और Google के साथ सहयोग करना चाहिए
आदर्शवाद और वास्तविकता के बीच दूरी
- लेख साफ कहता है कि OpenAI के वास्तव में प्रतिस्पर्धा रोक देने की संभावना नहीं है
- यह उदाहरण दिखाता है कि आदर्शवादी सिद्धांत आर्थिक प्रोत्साहनों के सामने कैसे कमजोर पड़ जाते हैं
- साथ ही यह भी रेखांकित किया गया है कि AGI की परिभाषा और लक्ष्य-समय लगातार बदलते रहे हैं, और हाल में फोकस ASI की चर्चा की ओर खिसक गया है
1 टिप्पणियां
Hacker News टिप्पणियाँ
इस थ्रेड में सब लोग सिर्फ़ परिभाषाओं की लड़ाई कर रहे हैं
असली मायने आर्थिक समय-रेखा के हैं — AI द्वारा मानव-सहायित automation से पूरी तरह स्वायत्त output में बदलाव का क्षण कब आता है, यही सवाल है
आज के AI production माहौल को देखें तो अब भी इंसान review, correction और oversight कर रहे हैं। AI मात्रा संभालता है, इंसान निर्णय लेते हैं। आखिरकार निर्णय ही bottleneck है
श्रम की जगह नहीं ली गई, बस उसे एक और जगह खिसका दिया गया है। वैश्विक श्रम प्रतिफल हर साल लगभग 50 ट्रिलियन डॉलर है, और capital markets इस पर दांव लगा रहे हैं कि AI उसमें से कुछ हिस्सा वास्तव में absorb कर पाएगा या नहीं। AGI नाम महत्वपूर्ण नहीं है — पूंजी की दिलचस्पी परिभाषाओं में नहीं, बल्कि श्रम और output के अलगाव में है
जब भी मैं “AGI” या “ASI” जैसे शब्द देखता हूँ, मैं उन्हें अपने दिमाग में “ऐसी कोई चीज़ जिसे कोई ठीक से परिभाषित नहीं कर सकता” से बदल देता हूँ
यानी यह ऐसा विचार है जिसकी परिभाषा अधूरी है, इसलिए इससे कोई निष्कर्ष नहीं निकाला जा सकता। इसलिए मैं इसे बस “स्किप्टीबूप” जैसी आवाज़ से बदल देता हूँ
अगर AGI को “किसी एक खास काम के बजाय general-purpose AI” माना जाए, तो वह पहले से मौजूद है।
अगर उसका मतलब “हर काम में मानव-स्तरीय बुद्धिमत्ता” है, तो कुछ इंसान खुद AGI नहीं होंगे।
अगर उसका मतलब “हर काम को पूरी तरह करने वाला जादुई algorithm” है, तो शायद ऐसी चीज़ मौजूद नहीं है।
जब AGI शब्द पहली बार आया था, तब शायद उसका मतलब HAL 9000 जैसा कुछ था, लेकिन अब यह लगातार खिसकते लक्ष्य वाला खेल बन गया है
जिस क्षण से tech commercialization पर all-in जाया गया, उसी समय से नतीजा तय था
मौजूदा LLM पहले से ही खतरनाक तरीकों से इस्तेमाल किए जा रहे हैं, और अगर ऐसी खबरें ध्यान खींचती रहीं तो OpenAI चुपचाप अपना charter वेबसाइट से हटा देगा
मौजूदा models AGI से अभी बहुत दूर हैं
next-token prediction ने हैरतअंगेज़ प्रगति की है, लेकिन अब भी इसमें real-world model या असली learning क्षमता नहीं है।
मानव supervision के बिना इसकी सीमाएँ साफ़ दिखती हैं
“भोले idealism की असहायता” जैसा वाक्य आया था, लेकिन मुझे उससे ज़्यादा यह idealistic भाषा को marketing tool की तरह उधार लेने जैसा लगता है
असल में यह धीरे-धीरे अपना असली चेहरा दिखाता हुआ मुनाफ़ा-केंद्रित संगठन था
AGI अगले 30 सालों में नहीं आएगा
शोधकर्ता भी यही कहते हैं।
असली AGI के लिए continuous learning और deep memory चाहिए, और LLM यह नहीं कर सकता।
आज की “memory” बस search और summarization functionality है — जैसे एक व्यक्ति physics lecture सुनकर सब कुछ Post-it पर लिख दे, फिर दूसरा व्यक्ति उन नोट्स को सरसरी तौर पर देखकर जवाब लिख दे
RL और retraining की ज़रूरत होती है, लेकिन वह बहुत महंगा, धीमा और जटिल है।
LLM शानदार code लिख सकता है, लेकिन अगर आप कहें “X folder की files मत delete करना”, तब भी वह उन्हें delete कर देगा।
हमलावर द्वारा document में डाले गए instructions का भी यह वैसा ही पालन करता है।
असली memory और real-time RL के बिना ऐसी समस्याएँ हल नहीं होंगी
Daniel Kokotajlo का ट्वीट, Karpathy की टिप्पणी, और AI शोधकर्ता सर्वे देखें तो कहीं ज़्यादा कम समय वाली भविष्यवाणियाँ भी हैं
बातचीत के दौरान वह स्मार्ट लगता है, लेकिन session खत्म होते ही सब भूल जाता है।
यहाँ तक कि session के दौरान भी performance गिरती है — लंबा context उल्टा नुकसानदायक हो जाता है
आखिरकार memory structure की अनुपस्थिति ही इसकी सीमा है। इंसानों ने long-term memory और sleep के ज़रिए इसे हल किया, लेकिन LLM ऐसा नहीं कर पाता
चाहे वह कितना भी बुद्धिमान हो, memory के बिना genius बस अल्पकालिक savant है
LLM हज़ारों पन्नों को तुरंत copy और recompose कर सकता है।
test-time RL और LoRA-आधारित continuous learning पहले से चल रहे हैं, और कुछ परिभाषाओं के अनुसार AGI तो पहले ही हासिल हो चुका है
बस उसकी economics अभी कमजोर है।
और programmer jobs खत्म होने के बजाय, उल्टा computational thinking skills वाले लोगों की ज़रूरत और बढ़ेगी
यह व्यक्तिगत अनुभव है, लेकिन हाल में GPT 5.4 मुझे Opus 4.6 से बेहतर लगा
हालांकि Chatbot Arena ranking में वह नीचे दिखता है, जो दिलचस्प है
यह आम users के vote पर आधारित है, इसलिए expertise verification की कमी है, और बड़ी कंपनियाँ rankings को manipulate भी करती हैं
नवीनतम models की तुलना के लिए इसका ज़्यादा मतलब नहीं है
एक ही prompt देने पर GPT 5.4 ने अनावश्यक refactoring की और bugs पैदा किए, जबकि Opus 4.6 ने पहले से implemented features को पहचाना और tests तथा documentation update का सुझाव दिया
मुझे अब भी Opus 4.6 सबसे अच्छा coding agent लगता है
“सितंबर 2026 में automated AI research intern, और मार्च 2028 में पूर्ण AI researcher” वाली भविष्यवाणी दिलचस्प लगी
यह Karpathy के Autoresearch project के HN के शीर्ष पर आने के समय से भी मेल खाती है।
शायद बड़ी research labs इससे कहीं बड़े scale वाले versions पर पहले से experiment कर रही होंगी
“भोले idealism की असहायता” और AGI की बदलती लक्ष्य-रेखा वाली बात से सहमति है
इन दिनों कई लोग AGI की जगह ASI की बात करते हैं, जिससे यह संकेत मिलता है कि शायद AGI पहले ही हासिल हो चुका हो
मज़ाक जैसा लगता है, लेकिन कोई भी वास्तव में AGI के क़रीब नहीं पहुँचा है
Altman ने खुद माना है कि “AGI तक पहुँचने के लिए कई मध्यवर्ती breakthroughs चाहिए”
उसने अनुमान लगाया था कि 2026 के आसपास AI मौजूदा जानकारी को फिर से जोड़ने से आगे बढ़कर नई अंतर्दृष्टि पैदा करेगा, और मैं उसे AGI की threshold मानता हूँ
मुझे लगता है कि मौजूदा LLM औसतन एक औसत इंसान से औसतन अधिक सक्षम हैं