1 पॉइंट द्वारा GN⁺ 2026-03-09 | 1 टिप्पणियां | WhatsApp पर शेयर करें
  • OpenAI ने 2018 के Charter में स्पष्ट रूप से एक ‘self-sacrifice clause’ दर्ज किया था, जिसमें कहा गया था कि अगर कोई दूसरा safety-केंद्रित प्रोजेक्ट AGI के करीब पहुंचता है, तो वह प्रतिस्पर्धा रोककर सहयोग करेगा
  • Sam Altman के बयानों के सारांश वाली तालिका के अनुसार AGI तक पहुंचने का अनुमानित समय 2033 से घटकर 2025 तक बहुत तेजी से आ गया, और हाल में “हम पहले ही AGI बना चुके हैं” जैसी टिप्पणी भी सामने आई
  • Arena.ai model leaderboard में Anthropic का Claude और Google का Gemini शीर्ष स्थानों पर हैं, जबकि OpenAI का GPT-5.4 6वें स्थान पर पीछे है
  • लेख का तर्क है कि यह स्थिति charter में दिए गए उस मानदंड को पूरा करती है, जिसमें कहा गया है कि “अगर 2 साल के भीतर सफलता की संभावना 50% से अधिक रखने वाला प्रतिस्पर्धी उभरता है, तो सहयोग किया जाए”
  • नतीजतन, OpenAI को charter के अनुसार प्रतिस्पर्धा रोककर सहयोग करना चाहिए, लेकिन व्यवहार में यह आदर्शवाद और आर्थिक प्रोत्साहनों के टकराव का उदाहरण बनकर सामने आता है

OpenAI Charter का self-sacrifice clause

  • OpenAI के 2018 Charter में AGI विकास की प्रतिस्पर्धा से safety को नुकसान पहुंचने की आशंका व्यक्त की गई थी
    • इसमें यह पंक्ति शामिल है कि “अगर कोई value alignment और safety को प्राथमिकता देने वाला प्रोजेक्ट AGI के करीब पहुंचता है, तो हम प्रतिस्पर्धा रोककर उसका समर्थन करेंगे”
    • “2 साल के भीतर सफलता की संभावना 50% से अधिक” को इसके सामान्य सक्रियण-मानदंड के रूप में बताया गया है
  • यह clause आज भी official site(openai.com/charter) पर प्रकाशित है और अब भी कंपनी की आधिकारिक नीति के रूप में बना हुआ है

Sam Altman की AGI भविष्यवाणियों में बदलाव

  • तालिका के अनुसार Altman ने 2023 से 2026 के बीच AGI तक पहुंचने के समय को लगातार और नजदीक बताया
    • मई 2023 में उन्होंने कहा था, “10 साल के भीतर विशेषज्ञ-स्तर से आगे निकल जाएंगे”,
    • लेकिन 2024~2025 में यह “2025 में AGI”, और यहां तक कि “हम पहले ही AGI बना चुके हैं” जैसे बयानों तक पहुंच गया
  • 2025 के बाद की भविष्यवाणियों का median लगभग 2 साल के भीतर है, जो charter के सक्रियण-मानदंड से मेल खाता है
  • कुछ इंटरव्यू में “AGI से आगे ASI (superintelligence) की ओर बढ़ रहे हैं” जैसी अभिव्यक्ति भी आई

Arena.ai model ranking की तुलना

  • Arena.ai leaderboard के शीर्ष 10 models में Anthropic का Claude-opus-4-6 पहले स्थान पर है, और Google का Gemini 3.1 तीसरे स्थान पर
  • OpenAI का GPT-5.4-high छठे स्थान पर है, यानी प्रतिस्पर्धी मॉडलों की तुलना में कम आंका गया
  • लेख में Anthropic और Google के models को ‘safety-केंद्रित और value-aligned’ बताया गया है, और उन्हें GPT के compatible alternatives माना गया है

क्या प्रतिस्पर्धा रोकने की शर्तें पूरी हो चुकी हैं?

  • AGI विकास का समय 2 साल के भीतर सिमटने और प्रतिस्पर्धी मॉडल आगे होने की स्थिति में charter की “प्रतिस्पर्धा रोकने और सहयोग” वाली शर्त पूरी मानी गई है
  • Arena.ai AGI को मापने के लिए उपयुक्त है या नहीं, इस पर बहस हो सकती है, लेकिन charter की मूल भावना ‘arms race से बचना’ है
  • इसलिए निष्कर्ष यह निकलता है कि OpenAI को Anthropic और Google के साथ सहयोग करना चाहिए

आदर्शवाद और वास्तविकता के बीच दूरी

  • लेख साफ कहता है कि OpenAI के वास्तव में प्रतिस्पर्धा रोक देने की संभावना नहीं है
  • यह उदाहरण दिखाता है कि आदर्शवादी सिद्धांत आर्थिक प्रोत्साहनों के सामने कैसे कमजोर पड़ जाते हैं
  • साथ ही यह भी रेखांकित किया गया है कि AGI की परिभाषा और लक्ष्य-समय लगातार बदलते रहे हैं, और हाल में फोकस ASI की चर्चा की ओर खिसक गया है

1 टिप्पणियां

 
GN⁺ 2026-03-09
Hacker News टिप्पणियाँ
  • इस थ्रेड में सब लोग सिर्फ़ परिभाषाओं की लड़ाई कर रहे हैं
    असली मायने आर्थिक समय-रेखा के हैं — AI द्वारा मानव-सहायित automation से पूरी तरह स्वायत्त output में बदलाव का क्षण कब आता है, यही सवाल है
    आज के AI production माहौल को देखें तो अब भी इंसान review, correction और oversight कर रहे हैं। AI मात्रा संभालता है, इंसान निर्णय लेते हैं। आखिरकार निर्णय ही bottleneck है
    श्रम की जगह नहीं ली गई, बस उसे एक और जगह खिसका दिया गया है। वैश्विक श्रम प्रतिफल हर साल लगभग 50 ट्रिलियन डॉलर है, और capital markets इस पर दांव लगा रहे हैं कि AI उसमें से कुछ हिस्सा वास्तव में absorb कर पाएगा या नहीं। AGI नाम महत्वपूर्ण नहीं है — पूंजी की दिलचस्पी परिभाषाओं में नहीं, बल्कि श्रम और output के अलगाव में है

  • जब भी मैं “AGI” या “ASI” जैसे शब्द देखता हूँ, मैं उन्हें अपने दिमाग में “ऐसी कोई चीज़ जिसे कोई ठीक से परिभाषित नहीं कर सकता” से बदल देता हूँ
    यानी यह ऐसा विचार है जिसकी परिभाषा अधूरी है, इसलिए इससे कोई निष्कर्ष नहीं निकाला जा सकता। इसलिए मैं इसे बस “स्किप्टीबूप” जैसी आवाज़ से बदल देता हूँ

    • मैं इन दिनों “AI” शब्द खुद भी लगभग इस्तेमाल नहीं करता। मौजूदा LLM या generative तकनीकों को ऐसे बुलाना मुझे बहुत अस्पष्ट और समस्या को ढक देने वाला शब्द लगता है
    • OpenAI के charter में AGI को “अत्यधिक स्वायत्त systems जो अधिकांश आर्थिक रूप से मूल्यवान कामों में इंसानों से बेहतर हों” के रूप में परिभाषित किया गया है
    • समस्या यह है कि कोई भी शब्दों की परिभाषा तय नहीं करता।
      अगर AGI को “किसी एक खास काम के बजाय general-purpose AI” माना जाए, तो वह पहले से मौजूद है।
      अगर उसका मतलब “हर काम में मानव-स्तरीय बुद्धिमत्ता” है, तो कुछ इंसान खुद AGI नहीं होंगे।
      अगर उसका मतलब “हर काम को पूरी तरह करने वाला जादुई algorithm” है, तो शायद ऐसी चीज़ मौजूद नहीं है।
      जब AGI शब्द पहली बार आया था, तब शायद उसका मतलब HAL 9000 जैसा कुछ था, लेकिन अब यह लगातार खिसकते लक्ष्य वाला खेल बन गया है
    • मैं इसे रोमांटिक परिभाषा या “gesture concept” कहता हूँ। व्यक्तिगत या टीम के अंदरूनी इस्तेमाल के लिए यह ठीक है, लेकिन आखिर में यह सिर्फ़ vocabulary को refine करने के लिए अस्थायी अभिव्यक्ति होती है
    • इसे “AI की enskibidification” भी कहा जा सकता है — यानी यह अवधारणा धीरे-धीरे हास्यास्पद बनती जा रही है
  • जिस क्षण से tech commercialization पर all-in जाया गया, उसी समय से नतीजा तय था
    मौजूदा LLM पहले से ही खतरनाक तरीकों से इस्तेमाल किए जा रहे हैं, और अगर ऐसी खबरें ध्यान खींचती रहीं तो OpenAI चुपचाप अपना charter वेबसाइट से हटा देगा

  • मौजूदा models AGI से अभी बहुत दूर हैं
    next-token prediction ने हैरतअंगेज़ प्रगति की है, लेकिन अब भी इसमें real-world model या असली learning क्षमता नहीं है।
    मानव supervision के बिना इसकी सीमाएँ साफ़ दिखती हैं

    • “12 महीनों के अंदर software engineers गायब हो जाएंगे” जैसी बात सुने हुए कितने महीने हो गए, यह भी याद नहीं
    • mechanistic interpretability research के नतीजों को देखें तो मुझे लगता है कि “कोई world model नहीं है” वाली बात अब उतनी प्रभावी नहीं रही
  • “भोले idealism की असहायता” जैसा वाक्य आया था, लेकिन मुझे उससे ज़्यादा यह idealistic भाषा को marketing tool की तरह उधार लेने जैसा लगता है
    असल में यह धीरे-धीरे अपना असली चेहरा दिखाता हुआ मुनाफ़ा-केंद्रित संगठन था

    • मुझे लगता है कि शुरुआत में नीयत सचमुच ईमानदार थी। लेकिन बाद में Altman लालच में बह गया और उसने उस आदर्श से विश्वासघात किया
  • AGI अगले 30 सालों में नहीं आएगा
    शोधकर्ता भी यही कहते हैं।
    असली AGI के लिए continuous learning और deep memory चाहिए, और LLM यह नहीं कर सकता।
    आज की “memory” बस search और summarization functionality है — जैसे एक व्यक्ति physics lecture सुनकर सब कुछ Post-it पर लिख दे, फिर दूसरा व्यक्ति उन नोट्स को सरसरी तौर पर देखकर जवाब लिख दे
    RL और retraining की ज़रूरत होती है, लेकिन वह बहुत महंगा, धीमा और जटिल है।
    LLM शानदार code लिख सकता है, लेकिन अगर आप कहें “X folder की files मत delete करना”, तब भी वह उन्हें delete कर देगा।
    हमलावर द्वारा document में डाले गए instructions का भी यह वैसा ही पालन करता है।
    असली memory और real-time RL के बिना ऐसी समस्याएँ हल नहीं होंगी

    • यह Post-it उपमा LLM की प्रकृति को सबसे अच्छी तरह समझाती है। दूसरे व्यक्ति को बेहतरीन नोट्स मिल जाएँ, तब भी गहरी समझ की कमी रहती है
    • “30 सालों में असंभव” वाली बात के लिए मैं जानना चाहूँगा कि किन शोधकर्ताओं की बात आधार है।
      Daniel Kokotajlo का ट्वीट, Karpathy की टिप्पणी, और AI शोधकर्ता सर्वे देखें तो कहीं ज़्यादा कम समय वाली भविष्यवाणियाँ भी हैं
    • एक मनोचिकित्सक के रूप में मैं LLM की तुलना anterograde amnesia वाले मरीज़ से करता हूँ
      बातचीत के दौरान वह स्मार्ट लगता है, लेकिन session खत्म होते ही सब भूल जाता है।
      यहाँ तक कि session के दौरान भी performance गिरती है — लंबा context उल्टा नुकसानदायक हो जाता है
      आखिरकार memory structure की अनुपस्थिति ही इसकी सीमा है। इंसानों ने long-term memory और sleep के ज़रिए इसे हल किया, लेकिन LLM ऐसा नहीं कर पाता
      चाहे वह कितना भी बुद्धिमान हो, memory के बिना genius बस अल्पकालिक savant है
    • मुझे लगता है “Post-it उपमा” गलत है।
      LLM हज़ारों पन्नों को तुरंत copy और recompose कर सकता है।
      test-time RL और LoRA-आधारित continuous learning पहले से चल रहे हैं, और कुछ परिभाषाओं के अनुसार AGI तो पहले ही हासिल हो चुका है
      बस उसकी economics अभी कमजोर है।
      और programmer jobs खत्म होने के बजाय, उल्टा computational thinking skills वाले लोगों की ज़रूरत और बढ़ेगी
    • मैं “30 सालों में असंभव” वाली बात से सहमत हूँ, लेकिन उसका आधार और सुनना चाहूँगा
  • यह व्यक्तिगत अनुभव है, लेकिन हाल में GPT 5.4 मुझे Opus 4.6 से बेहतर लगा
    हालांकि Chatbot Arena ranking में वह नीचे दिखता है, जो दिलचस्प है

    • Chatbot Arena पर भरोसा करना मुश्किल है।
      यह आम users के vote पर आधारित है, इसलिए expertise verification की कमी है, और बड़ी कंपनियाँ rankings को manipulate भी करती हैं
      नवीनतम models की तुलना के लिए इसका ज़्यादा मतलब नहीं है
    • मेरा अनुभव उल्टा रहा है।
      एक ही prompt देने पर GPT 5.4 ने अनावश्यक refactoring की और bugs पैदा किए, जबकि Opus 4.6 ने पहले से implemented features को पहचाना और tests तथा documentation update का सुझाव दिया
      मुझे अब भी Opus 4.6 सबसे अच्छा coding agent लगता है
  • “सितंबर 2026 में automated AI research intern, और मार्च 2028 में पूर्ण AI researcher” वाली भविष्यवाणी दिलचस्प लगी
    यह Karpathy के Autoresearch project के HN के शीर्ष पर आने के समय से भी मेल खाती है।
    शायद बड़ी research labs इससे कहीं बड़े scale वाले versions पर पहले से experiment कर रही होंगी

  • “भोले idealism की असहायता” और AGI की बदलती लक्ष्य-रेखा वाली बात से सहमति है
    इन दिनों कई लोग AGI की जगह ASI की बात करते हैं, जिससे यह संकेत मिलता है कि शायद AGI पहले ही हासिल हो चुका हो

  • मज़ाक जैसा लगता है, लेकिन कोई भी वास्तव में AGI के क़रीब नहीं पहुँचा है
    Altman ने खुद माना है कि “AGI तक पहुँचने के लिए कई मध्यवर्ती breakthroughs चाहिए”
    उसने अनुमान लगाया था कि 2026 के आसपास AI मौजूदा जानकारी को फिर से जोड़ने से आगे बढ़कर नई अंतर्दृष्टि पैदा करेगा, और मैं उसे AGI की threshold मानता हूँ

    • लेकिन मुझे तो लगता है कि हम AGI से आगे निकल चुके हैं।
      मुझे लगता है कि मौजूदा LLM औसतन एक औसत इंसान से औसतन अधिक सक्षम हैं