4 पॉइंट द्वारा GN⁺ 2026-02-14 | 1 टिप्पणियां | WhatsApp पर शेयर करें
  • OpenAI ने हाल ही में अपने मिशन वक्तव्य से ‘safely’ शब्द हटा दिया और एक नया लक्ष्य स्पष्ट किया कि artificial intelligence पूरी मानवता के लिए लाभकारी हो
  • यह बदलाव गैर-लाभकारी ढांचे से लाभ-केंद्रित ढांचे की ओर बदलाव के साथ ही हुआ, और Microsoft व SoftBank जैसी कंपनियों से बड़े पैमाने पर निवेश जुटाया गया
  • नए ढांचे में गैर-लाभकारी फाउंडेशन (OpenAI Foundation) और लाभकारी public benefit corporation (OpenAI Group) को अलग किया गया है, जिसमें पहला दूसरे में लगभग 26% हिस्सेदारी रखता है
  • लेकिन मिशन से सुरक्षा का उल्लेख हट गया है, और दोनों संगठनों पर सुरक्षा से जुड़ी कोई स्पष्ट जिम्मेदारी नहीं है, जिससे बोर्ड की जवाबदेही कमजोर होने की चिंता उठी है
  • इस बदलाव को इस बात की कसौटी माना जा रहा है कि AI समाज के व्यापक हित को प्राथमिकता देगा या शेयरधारकों के लाभ को

OpenAI के मिशन में बदलाव और संरचनात्मक पुनर्गठन

  • OpenAI ने 2023 तक “सुरक्षित तरीके से मानवता के लिए लाभकारी AI विकसित करना” को अपना लक्ष्य बताया था, लेकिन 2024 की IRS filing में इसे बदलकर “यह सुनिश्चित करना कि artificial intelligence पूरी मानवता के लिए लाभकारी हो” कर दिया गया
    • ‘safely’ और ‘वित्तीय रिटर्न पैदा करने की आवश्यकता से अप्रतिबंधित (unconstrained by a need to generate financial return)’ दोनों वाक्यांश हटा दिए गए
    • Platformer की रिपोर्ट के अनुसार ‘mission alignment team’ भी भंग कर दी गई
  • OpenAI अब भी अपनी वेबसाइट पर सुरक्षा, क्षमता और सकारात्मक प्रभाव की साथ-साथ प्रगति का उल्लेख करता है, लेकिन आधिकारिक मिशन में सुरक्षा से जुड़ा कोई वाक्य नहीं है

गैर-लाभकारी से लाभकारी मॉडल की ओर बदलाव

  • OpenAI की स्थापना 2015 में एक गैर-लाभकारी शोध संस्थान के रूप में हुई थी, जो अपने शोध परिणाम सार्वजनिक करता था और बिना royalty के उपलब्ध कराता था
  • 2019 में Sam Altman के नेतृत्व में एक लाभकारी subsidiary बनाई गई, जिसमें Microsoft ने शुरुआती 1 अरब डॉलर का निवेश किया
    • 2024 तक Microsoft का कुल निवेश 13.8 अरब डॉलर तक पहुंच गया
  • 2024 के अंत में 6.6 अरब डॉलर की अतिरिक्त फंडिंग के समय, यदि पारंपरिक लाभकारी कंपनी में रूपांतरण नहीं किया गया तो उसे debt में बदलने की शर्त जोड़ी गई

नया कानूनी ढांचा और हितों का संतुलन

  • अक्टूबर 2025 में California और Delaware के attorney general के साथ समझौते के जरिए OpenAI को public benefit corporation के रूप में पुनर्गठित किया गया
    • इसे OpenAI Foundation (गैर-लाभकारी) और OpenAI Group (लाभकारी) में बांटा गया
    • Foundation के पास Group में लगभग एक-चौथाई हिस्सेदारी है, जबकि Microsoft के पास 27% हिस्सेदारी है
  • public benefit corporation को सामाजिक और पर्यावरणीय लाभों पर विचार करना होता है, लेकिन लाभ और जनहित के बीच संतुलन आखिरकार बोर्ड के विवेक पर निर्भर करता है
  • SoftBank ने 2025 के अंत तक 41 अरब डॉलर का निवेश पूरा किया, और उसके बाद अतिरिक्त 30 अरब डॉलर के निवेश पर बातचीत चल रही है

सुरक्षा से जुड़े प्रावधान और उनकी सीमाएं

  • पुनर्गठन समझौते में safety and security committee की स्थापना, product release रोकने की शक्ति, और बोर्ड संरचना पर नियंत्रण जैसे प्रावधान शामिल हैं
    • OpenAI Group के बोर्ड को सुरक्षा संबंधी मामलों में वित्तीय लाभ से ऊपर मिशन को प्राथमिकता देनी चाहिए
  • लेकिन मिशन में सुरक्षा का स्पष्ट उल्लेख नहीं होने से, बोर्ड के पास वास्तव में सुरक्षा को प्राथमिकता देने का कानूनी आधार कमजोर दिखता है
  • दोनों संगठनों के बोर्ड में अधिकतर सदस्य समान हैं, जिससे निगरानी की भूमिका व्यवहार में दोहरावपूर्ण हो जाती है

वैकल्पिक मॉडल और नियामकीय बहस

  • 1992 में Health Net के लाभकारी रूपांतरण के समय, उसकी 80% संपत्ति को एक गैर-लाभकारी फाउंडेशन को स्थानांतरित करने की नियामकीय शर्त लगाई गई थी
  • Philadelphia Inquirer ने 2016 में गैर-लाभकारी Lenfest Institute के स्वामित्व वाली public benefit corporation में रूपांतरण किया, ताकि सामुदायिक पत्रकारिता का उद्देश्य बना रहे
  • California की कुछ गैर-लाभकारी संस्थाओं का तर्क है कि OpenAI की सभी संपत्तियां एक स्वतंत्र गैर-लाभकारी संस्था को सौंपी जानी चाहिए
  • लेख में कहा गया है कि OpenAI के बोर्ड ने सुरक्षा मिशन छोड़ दिया, और राज्य सरकारों ने इसे अनुमति दी, जो governance failure को दिखाता है

निवेश विस्तार और बाजार का आकलन

  • 2026 की शुरुआत तक OpenAI को Amazon, Nvidia, Microsoft आदि से अधिकतम 60 अरब डॉलर तक के निवेश की संभावना बताई गई है
  • कंपनी का valuation मार्च 2025 में 300 अरब डॉलर से बढ़कर अक्टूबर 2025 में 500 अरब डॉलर से अधिक हो गया
  • IPO की संभावना का भी उल्लेख है, जिससे shareholder returns को अधिकतम करने का दबाव और बढ़ सकता है
  • OpenAI Foundation का फंड लगभग 130 अरब डॉलर आंका गया है, हालांकि कंपनी unlisted होने के कारण यह market-value आधारित अनुमान है

सामाजिक महत्व

  • OpenAI के मिशन में बदलाव और संरचनात्मक पुनर्गठन को इस बात की परीक्षा के रूप में देखा गया है कि AI कंपनियां जनहित और मुनाफे में किसे प्राथमिकता देंगी
  • सुरक्षा संबंधी शब्द हटाना AI की सामाजिक जिम्मेदारी और जोखिम प्रबंधन से पीछे हटने के रूप में समझा जा सकता है
  • आगे चलकर public benefit corporation मॉडल की प्रभावशीलता और सरकारी निगरानी की भूमिका प्रमुख मुद्दे बन सकते हैं

1 टिप्पणियां

 
GN⁺ 2026-02-14
Hacker News की राय
  • हर साल के आधिकारिक mission statement को ProPublica के IRS 990 रिकॉर्ड में देखा जा सकता है
    मैंने उन्हें इकट्ठा करके Gist revision page बनाया, ताकि साल-दर-साल हुए बदलाव एक नज़र में दिखें
    विवरण मैंने अपनी blog post में भी संकलित किए हैं

    • यह बहुत मज़ेदार है। Animal Farm में आज्ञाओं को बदलने वाला दृश्य याद आता है — जैसे “सभी जानवर बराबर हैं” बदलकर “सभी जानवर बराबर हैं, लेकिन कुछ जानवर ज़्यादा बराबर हैं” हो जाता है
    • ऐतिहासिक mission changes को वास्तव में निकालकर दिखाने के लिए धन्यवाद। खासकर 2021 में यह “...that benefits humanity” था, फिर 2022 में “safely” जोड़कर “...that safely benefits humanity” कर दिया गया। लेकिन नवीनतम version में “safely” पूरी तरह हटा दिया गया है और वाक्य भी काफी छोटा हो गया है
      हटाए गए शब्दों में responsibly, safe, technology, world आदि शामिल हैं
    • 2016 से 2024 तक के वाक्यों को निकालकर Claude Code से commit dates बदलकर उसे git repo जैसा बना देना वास्तव में शानदार है। यह automated archiving का एक अच्छा उदाहरण है
    • लगता है Gist में punctuation काफी हद तक गायब है
    • बहुत दिलचस्प। क्या Anthropic के लिए भी इस तरह mission बदलावों का कोई रिकॉर्ड मौजूद है, यह जानने की उत्सुकता है
  • अप्रैल 2025 के Preparedness Framework update में persuasion/manipulation आइटम का tracking categories से हटना एक बड़ा संकेत था
    Fortune article के मुताबिक, OpenAI अब model release से पहले persuasion और manipulation risks का आकलन नहीं करता, बल्कि उन्हें terms of use के ज़रिए सीमित करता है
    यह “AI safety” के अर्थ को बहुत संकीर्ण तरीके से परिभाषित करने जैसा है — जैसे mass destruction weapons design की तरह, वैसे ही लोगों की वास्तविकता पहचानने की क्षमता छीन लेने वाला manipulative AI भी मानवता के लिए ख़तरा हो सकता है

    • “ऐसी systems जो लोगों की वास्तविकता पहचानने की क्षमता छीन लें” — क्या वह पहले से ही social media और ad tech नहीं है?
      इंसान दशकों से manipulation techniques के प्रति सुन्न हो चुके हैं, और अब केवल उनका scale और efficiency बढ़ने वाला है। आखिर में कुछ लोग और अमीर होंगे, और बहुसंख्यक लोगों की हालत और कठिन होगी
    • यही तो AI का असली उद्देश्य है। मानव censors को अपराधबोध होता है, लेकिन AI आदेशित censorship को पूरी तरह निभाता है।
      उससे भी डरावनी बात यह है कि Cambridge Analytica-style profiling को hyper-personalize करके हर व्यक्ति के लिए customized manipulative content दिया जा सकता है
    • मेरा मानना है कि “वास्तविकता-बोध खो देना” आखिरकार व्यक्ति की अपनी ज़िम्मेदारी है। अगर कोई बार-बार धोखा खाने के बाद भी खुद सीखने की कोशिश नहीं करता, तो वह आलस्य का परिणाम है
  • 2024 version में “unconstrained by a need to generate financial return” वाक्यांश का हटना निर्णायक बदलाव था। उसे हटा देने के बाद बचता ही क्या है?

    • सिर्फ profit
    • और 501(c)(3) non-profit संस्था के रूप में इस तरह का बदलाव कानूनी रूप से भी समस्याग्रस्त हो सकता है
  • “safely” शब्द हटाना उल्टा ज़्यादा ईमानदार लग रहा है। जैसे Google ने “Don’t be evil” छोड़ दिया था, वैसे ही यह पाखंड का मुखौटा उतारने जैसा है

    • सहमत नहीं हूँ। लोग Palantir या Broadcom जैसी खुलकर बुरी कंपनियों पर भी पर्याप्त गुस्सा जताते हैं
    • जटिल हितों के बीच भी सुरक्षित तरीके से काम करने वाले संगठन मौजूद हैं। दुनिया के शीर्ष स्तर के टैलेंट से कम-से-कम इतनी उम्मीद तो करनी ही चाहिए
    • मैंने Google में 10 साल AI research की है, और proto LLM technology को दुनिया में जारी न करने का फैसला वास्तव में Sundar ने लिया था। उनका मानना था कि दुनिया इसके लिए तैयार नहीं है
  • Google ने जब “Don’t be evil” छोड़ा था, तब जैसी ही cynical déjà vu वाली भावना आ रही है

    • उसकी जगह मानो “Do the right thing (for the shareholders) ” आ गया हो
  • अंतिम सवाल यह है — क्या हम पहले robot cat girls का आनंद लेंगे, या सीधे Terminator तक पहुँचेंगे?

    • “robot” शब्द की उत्पत्ति स्लाविक “rabu(ग़ुलाम)” से हुई है। ऐसे मज़ाक ग़ुलामी वाली मानसिकता को दर्शाते हैं। अपना मन बदलो या गायब हो जाओ
  • OpenAI का mission शुरू से ही मज़ाक जैसा ऐलान था। वे कहते थे, “अगर हमारा research किसी और की AGI हासिल करने में मदद करता है, तो mission पूरा हो जाता है,” लेकिन जब open source models ने उनके models को training में इस्तेमाल किया तो वे Congress में गुहार लगाने लगे

  • समझ नहीं आता कंपनियाँ ऐसे mission statements बनाती ही क्यों हैं। “हम बुरे नहीं बनेंगे” जैसी लाइन हटाने से वे ज़्यादा बुरी नहीं हो जातीं, बस उनका पाखंड खुलकर सामने आ जाता है

  • नया mission आखिरकार “profitably” से बदला हुआ ही लगता है।
    पहले एक boss ने मुझे पूरे दिन meeting room में बंद रखकर mission statement लिखवाया था, फिर उसे फ्रेम में लगाकर टांग दिया गया और किसी ने दोबारा उसे देखा भी नहीं। आखिर में वह सिर्फ marketing decoration ही होता है

  • जून 2024 में, पूर्व NSA director Paul Nakasone OpenAI board में शामिल हुए, और अक्टूबर 2025 में कंपनी ने adult content generation की अनुमति देने की घोषणा की

    • सचमुच खौफ़नाक company है। लालच और निगरानी के मेल जैसी लगती है
    • संबंधित वीडियो लिंक
    • मेरे 10 साल के काम को इन कंपनियों ने बिना अनुमति training में इस्तेमाल किया। अगर वे मेरी nude photos तक उठाकर porn बना दें, तो मेरा गुस्सा कैसा होगा, यह सोच भी नहीं सकता