- OpenAI ने हाल ही में अपने मिशन वक्तव्य से ‘safely’ शब्द हटा दिया और एक नया लक्ष्य स्पष्ट किया कि artificial intelligence पूरी मानवता के लिए लाभकारी हो
- यह बदलाव गैर-लाभकारी ढांचे से लाभ-केंद्रित ढांचे की ओर बदलाव के साथ ही हुआ, और Microsoft व SoftBank जैसी कंपनियों से बड़े पैमाने पर निवेश जुटाया गया
- नए ढांचे में गैर-लाभकारी फाउंडेशन (OpenAI Foundation) और लाभकारी public benefit corporation (OpenAI Group) को अलग किया गया है, जिसमें पहला दूसरे में लगभग 26% हिस्सेदारी रखता है
- लेकिन मिशन से सुरक्षा का उल्लेख हट गया है, और दोनों संगठनों पर सुरक्षा से जुड़ी कोई स्पष्ट जिम्मेदारी नहीं है, जिससे बोर्ड की जवाबदेही कमजोर होने की चिंता उठी है
- इस बदलाव को इस बात की कसौटी माना जा रहा है कि AI समाज के व्यापक हित को प्राथमिकता देगा या शेयरधारकों के लाभ को
OpenAI के मिशन में बदलाव और संरचनात्मक पुनर्गठन
- OpenAI ने 2023 तक “सुरक्षित तरीके से मानवता के लिए लाभकारी AI विकसित करना” को अपना लक्ष्य बताया था, लेकिन 2024 की IRS filing में इसे बदलकर “यह सुनिश्चित करना कि artificial intelligence पूरी मानवता के लिए लाभकारी हो” कर दिया गया
- ‘safely’ और ‘वित्तीय रिटर्न पैदा करने की आवश्यकता से अप्रतिबंधित (unconstrained by a need to generate financial return)’ दोनों वाक्यांश हटा दिए गए
- Platformer की रिपोर्ट के अनुसार ‘mission alignment team’ भी भंग कर दी गई
- OpenAI अब भी अपनी वेबसाइट पर सुरक्षा, क्षमता और सकारात्मक प्रभाव की साथ-साथ प्रगति का उल्लेख करता है, लेकिन आधिकारिक मिशन में सुरक्षा से जुड़ा कोई वाक्य नहीं है
गैर-लाभकारी से लाभकारी मॉडल की ओर बदलाव
- OpenAI की स्थापना 2015 में एक गैर-लाभकारी शोध संस्थान के रूप में हुई थी, जो अपने शोध परिणाम सार्वजनिक करता था और बिना royalty के उपलब्ध कराता था
- 2019 में Sam Altman के नेतृत्व में एक लाभकारी subsidiary बनाई गई, जिसमें Microsoft ने शुरुआती 1 अरब डॉलर का निवेश किया
- 2024 तक Microsoft का कुल निवेश 13.8 अरब डॉलर तक पहुंच गया
- 2024 के अंत में 6.6 अरब डॉलर की अतिरिक्त फंडिंग के समय, यदि पारंपरिक लाभकारी कंपनी में रूपांतरण नहीं किया गया तो उसे debt में बदलने की शर्त जोड़ी गई
नया कानूनी ढांचा और हितों का संतुलन
- अक्टूबर 2025 में California और Delaware के attorney general के साथ समझौते के जरिए OpenAI को public benefit corporation के रूप में पुनर्गठित किया गया
- इसे OpenAI Foundation (गैर-लाभकारी) और OpenAI Group (लाभकारी) में बांटा गया
- Foundation के पास Group में लगभग एक-चौथाई हिस्सेदारी है, जबकि Microsoft के पास 27% हिस्सेदारी है
- public benefit corporation को सामाजिक और पर्यावरणीय लाभों पर विचार करना होता है, लेकिन लाभ और जनहित के बीच संतुलन आखिरकार बोर्ड के विवेक पर निर्भर करता है
- SoftBank ने 2025 के अंत तक 41 अरब डॉलर का निवेश पूरा किया, और उसके बाद अतिरिक्त 30 अरब डॉलर के निवेश पर बातचीत चल रही है
सुरक्षा से जुड़े प्रावधान और उनकी सीमाएं
- पुनर्गठन समझौते में safety and security committee की स्थापना, product release रोकने की शक्ति, और बोर्ड संरचना पर नियंत्रण जैसे प्रावधान शामिल हैं
- OpenAI Group के बोर्ड को सुरक्षा संबंधी मामलों में वित्तीय लाभ से ऊपर मिशन को प्राथमिकता देनी चाहिए
- लेकिन मिशन में सुरक्षा का स्पष्ट उल्लेख नहीं होने से, बोर्ड के पास वास्तव में सुरक्षा को प्राथमिकता देने का कानूनी आधार कमजोर दिखता है
- दोनों संगठनों के बोर्ड में अधिकतर सदस्य समान हैं, जिससे निगरानी की भूमिका व्यवहार में दोहरावपूर्ण हो जाती है
वैकल्पिक मॉडल और नियामकीय बहस
- 1992 में Health Net के लाभकारी रूपांतरण के समय, उसकी 80% संपत्ति को एक गैर-लाभकारी फाउंडेशन को स्थानांतरित करने की नियामकीय शर्त लगाई गई थी
- Philadelphia Inquirer ने 2016 में गैर-लाभकारी Lenfest Institute के स्वामित्व वाली public benefit corporation में रूपांतरण किया, ताकि सामुदायिक पत्रकारिता का उद्देश्य बना रहे
- California की कुछ गैर-लाभकारी संस्थाओं का तर्क है कि OpenAI की सभी संपत्तियां एक स्वतंत्र गैर-लाभकारी संस्था को सौंपी जानी चाहिए
- लेख में कहा गया है कि OpenAI के बोर्ड ने सुरक्षा मिशन छोड़ दिया, और राज्य सरकारों ने इसे अनुमति दी, जो governance failure को दिखाता है
निवेश विस्तार और बाजार का आकलन
- 2026 की शुरुआत तक OpenAI को Amazon, Nvidia, Microsoft आदि से अधिकतम 60 अरब डॉलर तक के निवेश की संभावना बताई गई है
- कंपनी का valuation मार्च 2025 में 300 अरब डॉलर से बढ़कर अक्टूबर 2025 में 500 अरब डॉलर से अधिक हो गया
- IPO की संभावना का भी उल्लेख है, जिससे shareholder returns को अधिकतम करने का दबाव और बढ़ सकता है
- OpenAI Foundation का फंड लगभग 130 अरब डॉलर आंका गया है, हालांकि कंपनी unlisted होने के कारण यह market-value आधारित अनुमान है
सामाजिक महत्व
- OpenAI के मिशन में बदलाव और संरचनात्मक पुनर्गठन को इस बात की परीक्षा के रूप में देखा गया है कि AI कंपनियां जनहित और मुनाफे में किसे प्राथमिकता देंगी
- सुरक्षा संबंधी शब्द हटाना AI की सामाजिक जिम्मेदारी और जोखिम प्रबंधन से पीछे हटने के रूप में समझा जा सकता है
- आगे चलकर public benefit corporation मॉडल की प्रभावशीलता और सरकारी निगरानी की भूमिका प्रमुख मुद्दे बन सकते हैं
1 टिप्पणियां
Hacker News की राय
हर साल के आधिकारिक mission statement को ProPublica के IRS 990 रिकॉर्ड में देखा जा सकता है
मैंने उन्हें इकट्ठा करके Gist revision page बनाया, ताकि साल-दर-साल हुए बदलाव एक नज़र में दिखें
विवरण मैंने अपनी blog post में भी संकलित किए हैं
हटाए गए शब्दों में responsibly, safe, technology, world आदि शामिल हैं
अप्रैल 2025 के Preparedness Framework update में persuasion/manipulation आइटम का tracking categories से हटना एक बड़ा संकेत था
Fortune article के मुताबिक, OpenAI अब model release से पहले persuasion और manipulation risks का आकलन नहीं करता, बल्कि उन्हें terms of use के ज़रिए सीमित करता है
यह “AI safety” के अर्थ को बहुत संकीर्ण तरीके से परिभाषित करने जैसा है — जैसे mass destruction weapons design की तरह, वैसे ही लोगों की वास्तविकता पहचानने की क्षमता छीन लेने वाला manipulative AI भी मानवता के लिए ख़तरा हो सकता है
इंसान दशकों से manipulation techniques के प्रति सुन्न हो चुके हैं, और अब केवल उनका scale और efficiency बढ़ने वाला है। आखिर में कुछ लोग और अमीर होंगे, और बहुसंख्यक लोगों की हालत और कठिन होगी
उससे भी डरावनी बात यह है कि Cambridge Analytica-style profiling को hyper-personalize करके हर व्यक्ति के लिए customized manipulative content दिया जा सकता है
2024 version में “unconstrained by a need to generate financial return” वाक्यांश का हटना निर्णायक बदलाव था। उसे हटा देने के बाद बचता ही क्या है?
“safely” शब्द हटाना उल्टा ज़्यादा ईमानदार लग रहा है। जैसे Google ने “Don’t be evil” छोड़ दिया था, वैसे ही यह पाखंड का मुखौटा उतारने जैसा है
Google ने जब “Don’t be evil” छोड़ा था, तब जैसी ही cynical déjà vu वाली भावना आ रही है
अंतिम सवाल यह है — क्या हम पहले robot cat girls का आनंद लेंगे, या सीधे Terminator तक पहुँचेंगे?
OpenAI का mission शुरू से ही मज़ाक जैसा ऐलान था। वे कहते थे, “अगर हमारा research किसी और की AGI हासिल करने में मदद करता है, तो mission पूरा हो जाता है,” लेकिन जब open source models ने उनके models को training में इस्तेमाल किया तो वे Congress में गुहार लगाने लगे
समझ नहीं आता कंपनियाँ ऐसे mission statements बनाती ही क्यों हैं। “हम बुरे नहीं बनेंगे” जैसी लाइन हटाने से वे ज़्यादा बुरी नहीं हो जातीं, बस उनका पाखंड खुलकर सामने आ जाता है
नया mission आखिरकार “profitably” से बदला हुआ ही लगता है।
पहले एक boss ने मुझे पूरे दिन meeting room में बंद रखकर mission statement लिखवाया था, फिर उसे फ्रेम में लगाकर टांग दिया गया और किसी ने दोबारा उसे देखा भी नहीं। आखिर में वह सिर्फ marketing decoration ही होता है
जून 2024 में, पूर्व NSA director Paul Nakasone OpenAI board में शामिल हुए, और अक्टूबर 2025 में कंपनी ने adult content generation की अनुमति देने की घोषणा की