3 पॉइंट द्वारा GN⁺ 2025-09-23 | 1 टिप्पणियां | WhatsApp पर शेयर करें
  • OpenAI ने NVIDIA सिस्टम के आधार पर कम-से-कम 10GW-स्तरीय AI डेटा सेंटर बनाने की योजना की घोषणा की, ताकि अगली पीढ़ी का AI इन्फ्रास्ट्रक्चर तैयार किया जा सके
  • इस प्रक्रिया में NVIDIA ने हर गीगावॉट-स्तरीय डिप्लॉयमेंट के साथ क्रमिक रूप से अधिकतम 100 अरब डॉलर का निवेश करने का वादा किया
  • पहला 1GW-स्तरीय सिस्टम 2026 की दूसरी छमाही में Vera Rubin प्लेटफ़ॉर्म पर चालू होने वाला है
  • इस सहयोग में OpenAI और NVIDIA के बीच हार्डवेयर-सॉफ्टवेयर का संयुक्त ऑप्टिमाइज़ेशन शामिल है, और यह Microsoft·Oracle·SoftBank·Stargate साझेदारों के साथ मौजूदा सहयोग को भी पूरक करेगा
  • उम्मीद है कि यह OpenAI के साप्ताहिक 70 करोड़ से अधिक उपयोगकर्ताओं और वैश्विक बिज़नेस अपनाने के आधार पर AGI की दिशा में आगे बढ़ने के लिए एक महत्वपूर्ण आधार बनेगा

साझेदारी का अवलोकन

  • OpenAI और NVIDIA ने कम-से-कम 10GW-स्तरीय सिस्टम तैनात करने के लिए रणनीतिक साझेदारी के आशय-पत्र (LOI) की घोषणा की
    • उद्देश्य OpenAI के अगली पीढ़ी के मॉडल प्रशिक्षण और रनटाइम के लिए इन्फ्रास्ट्रक्चर सुनिश्चित करना है
    • इसे सुपरइंटेलिजेंस की ओर चरणबद्ध प्रगति के हिस्से के रूप में पेश किया गया
  • NVIDIA ने डेटा सेंटर और बिजली क्षमता विस्तार सहित डिप्लॉयमेंट प्रक्रिया के अनुरूप अधिकतम 100 अरब डॉलर के निवेश की योजना बताई
  • पहला चरण 2026 की दूसरी छमाही में NVIDIA Vera Rubin प्लेटफ़ॉर्म पर ऑनलाइन होने वाला है

मुख्य बयान

  • Jensen Huang (NVIDIA CEO)
    • OpenAI के साथ 10 साल के सहयोग के इतिहास का उल्लेख करते हुए ChatGPT तक की यात्रा पर ज़ोर दिया
    • कहा, “10GW इन्फ्रास्ट्रक्चर की तैनाती इंटेलिजेंस के अगले युग को खोलने वाली छलांग है”
  • Sam Altman (OpenAI CEO)
    • ज़ोर दिया कि “सब कुछ compute से शुरू होता है”, और यह भविष्य की अर्थव्यवस्था की बुनियाद बनेगा
    • बताया कि NVIDIA के साथ मिलकर वे नए AI breakthroughs और बड़े पैमाने पर मानवता व बिज़नेस उपयोग को आगे बढ़ा रहे हैं
  • Greg Brockman (OpenAI President)
    • कहा कि वे NVIDIA प्लेटफ़ॉर्म पर ऐसे AI बना रहे हैं जिनका उपयोग करोड़ों लोग करते हैं
    • 10GW तैनाती से इंटेलिजेंस की सीमाओं के विस्तार और तकनीक के लाभों के प्रसार की उम्मीद जताई

सहयोग का दायरा

  • NVIDIA को OpenAI का रणनीतिक compute और networking पार्टनर नामित किया गया
  • दोनों कंपनियों ने OpenAI के मॉडल व इन्फ्रास्ट्रक्चर सॉफ्टवेयर और NVIDIA के हार्डवेयर व सॉफ्टवेयर को संयुक्त रूप से ऑप्टिमाइज़ करने पर सहमति जताई
  • Microsoft, Oracle, SoftBank, Stargate जैसे मौजूदा सहयोग नेटवर्क के साथ तालमेल बढ़ाने की भी योजना है

OpenAI की वर्तमान स्थिति और महत्व

  • OpenAI के पास इस समय साप्ताहिक सक्रिय उपयोगकर्ता 70 करोड़ से अधिक हैं, और इसे वैश्विक एंटरप्राइज़, SMBs और डेवलपर्स के बीच व्यापक रूप से अपनाया जा रहा है
  • इस साझेदारी को पूरी मानवता के लिए योगदान देने वाले AGI निर्माण मिशन को तेज़ करने की बुनियाद के रूप में देखा जा रहा है
  • आने वाले कुछ हफ्तों में साझेदारी की विस्तृत शर्तों को अंतिम रूप देने की योजना है

1 टिप्पणियां

 
GN⁺ 2025-09-23
Hacker News की राय
  • इसे gigawatt के पैमाने पर व्यक्त करना काफ़ी दिलचस्प है। पिछले 3 सालों में data center की वजह से AI growth के चलते घरों और छोटे कारोबारों की बिजली दरों में तेज़ बढ़ोतरी को लेकर विवाद रहा है। अगर 10GW, Chicago और New York की संयुक्त खपत के बराबर है, तो अमेरिका के power grid और infrastructure की खराब हालत को देखते हुए यह गंभीर चर्चा का विषय है कि इतनी बिजली कहाँ से आएगी। सस्ते data center power supply के लिए लागत पहले ही households पर डाली जा चुकी है, इसलिए यह असमानता भी समस्या है। 5 साल में अमेरिकी residential electricity rates का 13 cent से 19 cent तक 46% बढ़ जाना न तो न्यायसंगत है, न टिकाऊ। सवाल यह है: यह 10GW आखिर कहाँ से आएगा, और इसकी कीमत कौन चुकाएगा? वैसे, data center scale की बात करते समय power (watt) के आधार पर बात करना आम है, लेकिन इस बार यह संख्या किसी pure data center owner या operator की नहीं, बल्कि Nvidia जैसे compute supplier के नज़रिए से आई है। इससे साफ़ है कि power consumption, grid expansion, और cost burden ही केंद्रीय मुद्दे हैं
    • मैं data center industry में काम करता हूँ। data center का पैमाना power consumption (जैसे 200MW) में बताना standard है। compute equipment को हर 5 साल में upgrade किया जा सकता है, लेकिन power requirement लगभग स्थिर रहती है। आखिरकार यह unit अच्छी तरह दिखाती है कि AI मूल रूप से energy को refine करने की एक प्रक्रिया है
    • “न न्यायसंगत, न टिकाऊ” वाले दावे पर, Italy की तुलना में अमेरिका में बिजली की कीमत आधी है। दुनिया के सबसे अमीर देशों में से एक अमेरिका के लिए यह कोई अजेय समस्या नहीं लगती
    • data center infrastructure हमेशा watt के आधार पर allocate किया जाता है। IT load, cooling वगैरह की सारी गणनाएँ इसी संख्या से निकलती हैं
    • utility कंपनियों को दरें बढ़ाने पर regulators के सामने उसका आधार पेश करना ही पड़ता है। लागत बढ़ने का मुख्य कारण renewable transition है। बड़े data center से ज़रूरी लागत सीधे वसूलना मुश्किल नहीं है। लेकिन बिजली का खुद उत्पादन करना ज़्यादा जटिल मामला है। पहले Columbia River hydropower से सस्ती बिजली खींच लाना संभव था, लेकिन अब इसकी सीधी टक्कर residential use से होने लगी है। फिर भी generation cost कुल bill का बहुत छोटा हिस्सा होती है
    • सालाना 8% बढ़ोतरी बड़ी है, लेकिन 2022 के वैश्विक fuel shock को ध्यान में रखना चाहिए। उदाहरण के लिए Australia में उस साल बिजली बिल दोगुने हो गए थे। औसतन लंबी अवधि में यह लगभग 6% annual growth है, जो wage growth 4% से थोड़ा ही ज़्यादा है। बिजली खर्च अब भी household income का छोटा हिस्सा है। wages की बढ़ोतरी ज़्यादातर असर absorb कर लेती है। हाँ, low-income households पर इसका चोटिल असर हो सकता है, लेकिन अधिकांश लोगों के लिए यह बहुत बड़ा झटका नहीं है
  • “landmark strategic partnership” पर प्रेस रिलीज़ की पूरी भाषा बहुत धुंधली और corporate PR जैसी लगती है। असल में यह “कभी न कभी कुछ बड़ा करेंगे” स्तर की घोषणा जैसी है
    • आज Nvidia का stock $6 चढ़ा, तो घोषणा का असर तो साफ़ दिखा। असल में यह investors से “हम कुछ बड़ा करने वाले हैं, थोड़ा और पैसा दीजिए” कहने जैसा था, और काफ़ी निवेशकों ने उस पर प्रतिक्रिया भी दी
  • मुझे यह जानने की जिज्ञासा है कि Nvidia systems का gigawatt-scale आकार ठोस रूप से क्या मतलब रखता है। मैंने अपने हिसाब से और GPT की मदद से अनुमान लगाया, तो यह शायद लगभग 1 करोड़ machines तक हो सकता है। पैमाना वाकई विशाल लगता है
    • यह संख्या निश्चित रूप से हास्यास्पद रूप से बड़ी है। system level पर एक H100 लगभग 1~2kW लेता है, इसलिए 2kW मानें तो लगभग 50 लाख units बनते हैं। उदाहरण के लिए NVL72 rack में 72 chips पर 120kW होता है, यानी cooling सहित लगभग 2kW प्रति chip
    • “लाखों की संख्या” कहना पूरी तरह ठीक होगा। असली संख्या infrastructure environment पर निर्भर करेगी, और accelerator वास्तविकता में कुल power का सिर्फ़ एक हिस्सा लेते हैं, फिर भी पैमाना निश्चित रूप से millions में है
    • मैंने comments पढ़ने से पहले जल्दी से हिसाब लगाया: अगर एक GPU 600W ले, तो 10,000,000,000/600 = 1.666 करोड़ GPU निकलते हैं। कई factors के कारण वास्तविक संख्या अलग होगी, लेकिन शुरुआती अनुमान के तौर पर ठीक है। इसमें overhead, heat, conversion efficiency वगैरह शामिल नहीं हैं
    • अगर 1000 GPU पर 3MW मानें, तो 10GW लगभग 33.3 लाख GPU बैठता है
    • मुझे यह भी जानना है कि इन सभी GPU को जोड़ने के लिए किस तरह की cables और कितनी लंबाई चाहिए होगी। मैं तो समझता था बस metal rack में लगा देते होंगे, लेकिन असली data center की तस्वीरें देखीं तो अनगिनत नीली तारें जुड़ी दिखीं
  • मुझे लगता है कि LLM (large language model) तकनीक पहले ही अपने शिखर से आगे निकल चुकी है। अब यह कुछ वैसा है जैसे space heater के विज्ञापन—दिखाया जाता है कि कोई बड़ी प्रगति हो रही है, जबकि तकनीक खुद ठहरी हुई लगती है। बस तेज़तर तोते बनाए जा रहे हैं। बाज़ार को ऐसी स्थिति पर अधिक तर्कसंगत नियंत्रण रखना चाहिए था
    • AI bubble के किसी दिन spectacular तरीके से फूटने की पूरी संभावना है। लेकिन यह कहना कि अभी LLM का peak आ चुका है, वैसा ही होगा जैसे 99~01 में कहना कि internet भी अपने चरम पर पहुँच चुका था। बाद में smartphones जैसी कई और innovations आईं, और text-based LLM भी अभी स्थिर नहीं हुए हैं। AI सिर्फ़ text नहीं है; autonomous vehicles जैसे real-world AI भी exponential गति से आगे बढ़ रहे हैं
    • dot-com bubble के समय भी भारी overheat के बाद बड़ा crash आया था, और जो Amazon जैसी कंपनियाँ बचीं वे दिग्गज बन गईं। उम्मीद है इस AI boom से भी कुछ सार्थक उपलब्धियाँ बची रहेंगी
    • मुझे लगता है कि जल्द market correction आएगा। लेकिन जैसे dot-com crash के बाद भी internet की उपयोगिता बनी रही, वैसे ही लंबे समय में इसका मूल्य रहने की उम्मीद है
    • “peak पार कर चुका” कहने का एक नज़रिया यह भी है कि सारी positive expectations अब पहले ही price में शामिल हो चुकी हैं
  • पानी कई जगहों पर कमी वाला ज़रूरी संसाधन है। data center के सूखे के दौरान पानी खींच लेने की कई मिसालें रही हैं। सोच रहा हूँ कि क्या अमेरिका की EPA अभी भी ऐसे projects के water-use management पर आवाज़ उठा सकती है
    • Midwest का groundwater ethanol production में, और California में almond farming में इससे भी ज़्यादा इस्तेमाल होता है। इन दोनों का water resources पर प्रभाव कहीं बड़ा है, और data center की तुलना में वास्तविक उपयोगिता भी कम है। बेहतर होगा कि ध्यान सचमुच गंभीर मुद्दों पर दिया जाए
    • data center का water issue उतना बड़ा नहीं है जितना media बताता है। कुछ जगहों पर local समस्या हो सकती है, लेकिन असली केंद्रीय मुद्दा power है
    • क्या data center का पानी उपयोग वास्तव में इतना बड़ा मामला है? अधिकांश जगह तो recirculating cooling systems होते हैं, जिनमें पानी खर्च नहीं होता बल्कि बस pumps से घुमाया जाता है
  • इन विशाल सुविधाओं की बिजली मांग पर कोई ठीक से बात नहीं करता। New Jersey में PSEG के तहत मेरे बिजली बिल भी 50% से ज़्यादा बढ़ गए हैं। कहा जाता है कि demand data center की वजह से उछली है, फिर भी data center पर higher tariff नहीं लगाया जाता संबंधित लेख
    • ऐसे rate hikes, New Jersey की consumer-unfriendly politics का उदाहरण हैं। data center आखिरकार उन्हीं जगहों पर इकट्ठा होंगे जहाँ competitive electricity pricing मिलेगी
    • इसे होने दिया राज्य सरकार ने। वे आसानी से मना कर सकते थे, लेकिन अनुमति दी
  • Google सालाना 15TWh उपयोग करता है (लगभग 1.7GW), जबकि OpenAI और Nvidia की नई योजना उसका 5.8 गुना (5.8 Googles) बिजली खाएगी। इतने पैमाने पर मौजूदा GPU की तुलना में ultra-low-power AI compute chips के लिए बहुत बड़ा अवसर बनेगा। कई तकनीकी प्रयास पहले से चल रहे हैं, इसलिए उत्सुकता है
    • ultra-low-power AI chips के ठोस उदाहरण जानने में दिलचस्पी है। अगर वास्तविक power savings के कुछ आँकड़े हों तो और अच्छा होगा
    • सिर्फ़ यह single data center भी प्रमुख cryptocurrency पर 51% attack करने लायक computing power इकट्ठा कर सकता है। अगर AI market bubble के अंत में ढह जाए, तो यह एक दिलचस्प insurance policy साबित हो सकता है
  • मैं तो बस Ed Zitron के issue analysis लेख का चुपचाप इंतज़ार कर रहा हूँ
    • जब management output के आधार पर performance नहीं नाप पाता, तो वह input के आधार पर नापने लगता है, और efficiency गिर जाती है। कर्मचारियों को office वापस बुलाना भी उसी का हिस्सा है। अब OpenAI और Nvidia के लिए वास्तविक AI outcomes से ज़्यादा input gigawatts ही success metric बन गए हैं
    • The Ed Zitron की अपनी पोस्ट
    • Ed Zitron की निराशावादी भविष्यवाणी पर भरोसा करके बहुतों का बड़ा नुकसान हुआ है
  • एक अनुमान है कि इस data center के लिए Monaco (740 acre) के बराबर ज़मीन चाहिए होगी। यह 80kW/rack के आधार पर है
    • Monaco इतना छोटा है कि Berlin के Tempelhofer Park के अंदर आ जाए
    • इसे लगभग एक BYD factory के आकार के बराबर भी समझाया जा सकता है
    • Monaco 2 वर्ग किलोमीटर है। अगर प्रति rack 1 वर्ग मीटर मानें, तो वास्तविक ज़रूरी क्षेत्र 12 hectare, यानी लगभग 17 football fields होगा (single-story installation के आधार पर)। शायद data center को vertical stacking में भी बनाया जा सकता है। क्या Monaco का आकार खोजने वाला मैं अकेला था? Monaco wiki सीधा area calculation
    • पूरे अमेरिका की ज़मीन में 48 लाख Monaco समा सकते हैं
  • 1960s की अमेरिकी नौसेना की submarine reactor क्षमता 78MW थी, तो 10GW लगभग 128 nuclear submarines के बराबर है
    • और आसान तुलना करें तो यह अमेरिका की औसत कुल बिजली खपत का 2% है, और 1.8 करोड़ आबादी वाले पूरे Netherlands देश के बराबर है
    • एक nuclear plant आमतौर पर अधिकतम 2GW तक होता है, और offshore wind farm भी 1.5GW के आसपास सीमा छूता है। यहाँ तक कि 525kV DC transmission system भी प्रति cable run लगभग 2GW तक ही भेज पाता है। सिर्फ़ 10GW का अतिरिक्त load ही grid पर भारी झटका डालेगा और बड़े पैमाने पर infrastructure investment माँगेगा। किसी बड़े vendor से 525kV cable माँगें तो शायद 2030 के बाद ही मिले
    • दूसरी ओर, अगर मानव मस्तिष्क लगभग 20W लेता है, तो 10GW लगभग 50 करोड़ दिमागों के बराबर हुआ। अगर मक्खियों जैसे कीट भी बेहद कम ऊर्जा में सूचना प्रसंस्करण कर लेते हैं, तो शायद LLM जैसी मौजूदा AI पूरी तरह अक्षम दिशा में है। अगर कभी कोई ज़्यादा कुशल तरीका आ गया, तो आज की यह सारी infrastructure बेकार हो सकती है, हाहा
    • 1GW के 10 बेहद सुरक्षित РБМК reactors लगा दें तो 10GW हो जाएगा (विस्फोट का कोई ख़तरा नहीं)
    • एक power plant लगभग 1GW का होता है, और nuclear plants बनने में बहुत समय लेते हैं, इसलिए अंततः natural gas generation ही सबसे संभावित विकल्प लगता है