5 पॉइंट द्वारा GN⁺ 2025-10-19 | 1 टिप्पणियां | WhatsApp पर शेयर करें
  • OpenAI को आने वाले 12 महीनों में 400 बिलियन डॉलर से अधिक की फंडिंग जुटानी पड़ेगी।
  • यह राशि विशाल डेटा सेंटर निर्माण, AI चिप अनुबंध, कर्मचारी खर्च और ऑपरेशनल लागत जैसी बड़े विस्तार योजनाओं की जरूरतें पूरी करने के लिए मानी गई है।
  • केवल एक डेटा सेंटर के निर्माण का खर्च 5–60 बिलियन डॉलर अनुमानित है, जबकि OpenAI का लक्ष्य 2029 तक 33GW और 2033 तक 250GW क्षमता हासिल करना है।
  • इस तरह की विस्तार गति और आकार वैश्विक वित्तीय व इंफ्रास्ट्रक्चर सीमाओं को पार कर जाता है, इसलिए इसे लागू करना लगभग असंभव के करीब है।
  • यदि वर्तमान योजनाएँ वैसे ही आगे बढ़ती हैं, तो OpenAI वैश्विक पूंजी बाजार पर गंभीर दबाव डालने के साथ-साथ निवेशकों और पूरे उद्योग में बड़ा जोखिम भी बढ़ा देगा।

अवलोकन

  • OpenAI को आगे आने वाले बड़े डेटा सेंटर निर्माण, चिप अनुबंध और मेंटेनेंस खर्च वाली महत्वाकांक्षी योजनाओं को आगे बढ़ाने के लिए अभूतपूर्व तेज़ी से फंड जुटाना होगा।
    • केवल अगले एक वर्ष में ही न्यूनतम 400 बिलियन डॉलर से अधिक की जरूरत होगी, और यह बोझ सिर्फ OpenAI पर ही नहीं, पूरी वैश्विक वित्तीय प्रणाली पर भी काफी भारी पड़ेगा।
  • हाल ही में घोषित 10GW-स्तर की custom chip collaboration और कई GW-स्तर के deployment promises को “तार्किक/व्यावहारिक” बताकर रिपोर्ट करने की प्रवृत्ति पर असहमति है।
    • 1GW निर्माण लागत को 50 बिलियन डॉलर तक ऊपर ले जाकर, इमारत, पावर इंफ्रास्ट्रक्चर और networking को शामिल करने वाला कुल खर्च गिनना चाहिए।
    • इसलिए न्यूनतम 2.5 वर्षों की lead time और reserve power capacity जोड़ने पर समय-सीमा लगभग असंभव दिखती है।
  • पुराने अनुमान (32.5 बिलियन डॉलर/ GW) को 50 बिलियन डॉलर/ GW करने का कारण चिप कीमत, networking, सहायक इंफ्रास्ट्रक्चर और तीसरे-पक्ष योगदान की अल्प गणना को ठीक करना है।
    • उदाहरण के तौर पर GB200/Blackwell की कीमत/संख्या धारणा, Lancium procurement, और 8 pods / 50,000 GPUs जैसे स्केल कारकों ने खर्च बढ़ाया है।

2026 के दूसरे छमाही की समयरेखा की समीक्षा

  • Broadcom: 2026 के दूसरे छमाही में inference चिप tape-out, mass production और 1GW deployment का लक्ष्य तय।
    • साइट अभी निश्चित नहीं है और निर्माण शुरू नहीं हुआ, जबकि IT के हर 1GW के लिए कुल 1.2~1.3GW power चाहिए; इसलिए schedule conflict की संभावना अधिक है।
  • AMD: 2026 के दूसरे छमाही में MI450 1GW first deployment योजना।
    • उस समय तक पूरा करने के लिए पिछले वर्ष procurement, power contracts और construction start पहले से हो चुके होने चाहिए।
  • NVIDIA: 2026 के दूसरे छमाही में Vera Rubin 1GW deployment लक्ष्य।
    • उसी तरह site, power और construction पहले से आगे बढ़े होने चाहिए।
  • रूढ़िवादी अनुमान से भी 100 बिलियन डॉलर+ की जरूरत है, इसलिए cash pre-spend या बड़ा consortium अपरिहार्य होगा।

मांग, ट्रैफिक और क्षमता दावों पर शंका

  • साप्ताहिक 800 मिलियन MAU आँकड़ों के दोहराव की संभावना और 2033 तक 250GW तथा 10 ट्रिलियन डॉलर का लक्ष्य अवास्तविक लगता है।
    • 2024 के 55GW वैश्विक DC IT load अनुमान को देखते हुए, किसी एक कंपनी का 8 साल में 5 गुना expansion बिना मिसाल के होगा।
  • उत्पाद शक्ति के लिहाज से हाल ही में GPT-4.5, GPT-5, Sora 2 के कमज़ोर प्रदर्शन/सीमाओं को देखकर, बहुत बड़े R&D खर्च के मुकाबले डिलीवेरेबल्स के मूल्य पर सवाल उठता है।
    • 2024~2025 में 11~12 बिलियन डॉलर R&D खर्च में से वास्तविक मॉडल ट्रेनिंग खर्च सीमित रहा था, ऐसा बाहरी analysis से पता चलता है।

12 महीनों में अपेक्षित फंडिंग मदें (लेखक का अनुमान)

  • Broadcom के लिए 1GW: लगभग 50 बिलियन डॉलर
  • NVIDIA के लिए 1GW + चिप खरीद: लगभग 50 बिलियन डॉलर
  • 2026 कंप्यूट खर्च (Oracle, CoreWeave, Azure, GCP के माध्यम से): लगभग 40 बिलियन डॉलर
  • AMD के लिए 1GW + चिप खरीद: लगभग 50 बिलियन डॉलर
  • consumer devices development: लगभग 0.5 बिलियन डॉलर
  • ARM आधारित CPU design सहयोग: लगभग 1 बिलियन डॉलर
  • sales, marketing, salaries आदि अन्य OPEX adjustments: लगभग 10 बिलियन डॉलर
    • कुल मिलाकर 391.5 बिलियन डॉलर ≈ 400 बिलियन डॉलर, और 2026 फरवरी से पहले बड़ा cash outflow अपेक्षित।

वित्तीय प्रतिबंध और संरचनात्मक जोखिम

  • 2025 के पहले छमाही के हिसाब से 6.7 बिलियन डॉलर R&D और 2 बिलियन डॉलर S&M खर्च के संदर्भ में cash outflow जारी रहना दिखता है।
    • 2026 के पहले छमाही में 9.2 बिलियन डॉलर कंप्यूट खर्च खपत और 4.3 बिलियन डॉलर राजस्व के अनुमान से एक negative margin structure बनती दिखती है।
  • non-profit से for-profit रूपांतरण की समयसीमा और SoftBank 20 बिलियन डॉलर conditional जैसी governance और contract milestones से जुड़े जोखिम मौजूद हैं।
    • 2024 के 6.6 बिलियन डॉलर राउंड की 2026 अक्टूबर debt-conversion condition भी अतिरिक्त दबाव बनाती है।

Oracle, CoreWeave आदि इंफ्रास्ट्रक्चर डील की वास्तविकता

  • Oracle के साथ 5 वर्ष 300 बिलियन डॉलर का contract पूरा करने के लिए 4.5GW IT की जरूरत अनुमानित है।
    • Stargate Abilene अभी केवल 200MW power ही सुरक्षित कर पाया है, और reserve power गिनें तो IT क्षमता 130MW के आसपास ही रहती है।
    • Shackelford 1.4GW साइट अभी निर्माण के शुरुआती चरण में है; पहले ब्लॉक का लक्ष्य H2 2026 है, इसलिए पूर्ण संचालन संभवतः 2027 के बाद ही होगा।
  • CoreWeave के 2025 अंत तक अधिकतम 900MW के संकेत के हिसाब से, “2025 में 2GW operation” के साथ बड़ा अंतर है।

पूंजी बाजार, सप्लाई चेन और grid की सीमाएँ

  • जरूरत की रकम 2024 के वैश्विक VC 368 बिलियन डॉलर से अधिक है; private equity deals और global trade से तुलना करने पर भी absorption limit स्पष्ट दिखती है।
  • transformers, electrical steel, HV इंफ्रास्ट्रक्चर, cooling, grid reserve, skilled manpower आदि में एक साथ bottlenecks हैं, इसलिए schedule clashes लगभग निश्चित हैं।
  • इस पूरी घोषणा श्रृंखला का चरित्र ज्यादा stock और deal-drive नरेटिव जैसा लगता है, जबकि वास्तविक execution feasibility कम आँकी जाती है।

निष्कर्ष

  • समय, फंड, संसाधन, regulation और power की बहुआयामी वास्तविक सीमाओं के कारण 2026 तक के सार्वजनिक वादों को पूरा करना बेहद कठिन है।
  • आने वाले 12 महीनों में 400 बिलियन डॉलर जुटाना वैश्विक पूंजी बाजार की absorption क्षमता के हिसाब से भी सीमा के करीब है, और non-delivery पर trust risk बढ़ सकता है।
  • सार यह है कि बढ़ा-चढ़ाकर बताए गए capacity commitments की तुलना में demand, product power और cash flow में असंतुलन है; जब तक plan को पुनः वास्तविक बनाना, governance सुधारना और फंडिंग structure का पुनर्निर्माण नहीं होता, यह टिकाऊ नहीं है।

1 टिप्पणियां

 
GN⁺ 2025-10-19
Hacker News राय
  • भले ही किसी को OpenAI की growth rate प्रभावशाली लगे, लेकिन सिर्फ दो महीनों में 10 करोड़ users बढ़ जाने का मतलब यह नहीं है कि पृथ्वी के सभी इंसान हमेशा इस service का इस्तेमाल करेंगे। दूसरी ओर, इतनी तेज़ वृद्धि यह तर्क भी दे सकती है कि इसमें पूरी मानवता द्वारा लगातार इस्तेमाल किए जाने की क्षमता है। लेकिन यह ध्यान रखना चाहिए कि growth curve S-आकार का हो सकता है, इसलिए अनंत geometric growth मान लेना ठीक नहीं होगा

    • सिर्फ दो महीनों में 10 करोड़ users बढ़ने से यह साबित नहीं होता कि हर इंसान को इसकी हमेशा ज़रूरत है। लोकप्रियता और उपयोगिता अलग चीज़ें हैं। LLM usage बढ़ने का productivity जैसे metrics पर क्या असर पड़ता है, इस पर data ज़्यादा भरोसेमंद होगा। कुछ studies में तो professional productivity घटती हुई भी दिखी है। संबंधित अध्ययन देखें

    • मैंने भी हाल में पहली बार ChatGPT को search के विकल्प की तरह और थोड़ा-बहुत casually इस्तेमाल किया। आजकल traditional search इतनी खराब हो गई है कि यह किसी अधपके boxer का 70 साल के champion से लड़ने जैसा लगता है। अगर यह कभी मेरे laptop पर चलने लगे, तो यह सच में काफ़ी उपयोगी tool बन सकता है

    • OpenAI की bottleneck पहले GPU से energy पर शिफ्ट हुई। अगली bottleneck ‘जैविक इंसान’ होंगे। मज़ाक में यह भी कहा जा रहा है कि OpenAI growth rate बनाए रखने के लिए शायद और ज़्यादा इंसान बनाने का तरीका भी ढूंढ ले

    • लंबी अवधि में अगर browser, OS, smartphone, word processor जैसे व्यापक products में ठीक-ठाक AI built-in हो गया, तो mass market के लिए standalone AI market बहुत छोटा हो सकता है। specialized tools, cutting-edge research और coding tools की demand बनी रह सकती है, लेकिन सिर्फ उससे trillion-dollar company बनाना मुश्किल लगता है

    • वास्तव में $20 देकर subscribe करने वाले लोग लगभग 5% हैं। VR, AR की तरह अगर free हो तो लोग कभी-कभार इस्तेमाल करेंगे, लेकिन सीधे पैसे देने लायक ज़रूरी नहीं समझेंगे। मुझे लगता है LLM पहले ही commoditized हो चुका है

  • लेख दिलचस्प था, लेकिन असल में OpenAI या Anthropic के लिए सबसे बड़ा खतरा open source models हैं। deepseek, llama 3 जैसे models तेज़ी से पकड़ बना रहे हैं, इसलिए अगर लगभग समान capabilities बहुत कम पैसे में या मेरी GPU पर free मिल जाएँ, तो OpenAI की value proposition क्या बचेगी, यह सवाल है। मैंने खुद OpenAI का paid subscription लिया है, लेकिन सच कहूँ तो convenience की वजह से, और math verification जैसी चीज़ों में यह ठीक काम आता है। लेकिन इस price range पर क्या यह सच में enterprise-essential service बन पाएगा, इस पर संदेह है। हाँ, OpenAI के पास top talent है और funding भी है, इसलिए मैं गलत भी हो सकता हूँ

    • यह कहा जाता है कि deepseek और llama 3 जैसे open source models तेज़ी से बराबरी कर रहे हैं, लेकिन बड़े models को train करना बहुत महंगा है, और जो चीज़ें अभी open source के रूप में release हो रही हैं, वे भी असल में for-profit कंपनियों द्वारा open source ecosystem के लिए नुकसान सहने जैसा है। अगर ये कंपनियाँ profit motive के चलते ‘सीढ़ी खींच लेने’ लगें, तो उसके खिलाफ क्या उपाय है?

    • लेखक का असली point यह है कि हमें वास्तविक numbers देखकर व्यावहारिक रूप से सोचना चाहिए। data center बनाने और चलाने के लिए लोगों को ढूंढने में भी काफी समय लगता है। उनका तर्क है कि लेख में दी गई timeline व्यावहारिक रूप से असंभव है

    • कम समय में बहुत पैसा झोंका जा रहा है, लेकिन असली demand कहाँ से आएगी, और ‘llama को अपनी GPU पर सीधे चलाने’ जैसे self-service model revenue में कितना योगदान देंगे, यह साफ़ नहीं है। कुछ न कुछ गड़बड़ लगता है

    • मेरी GPU पर deepseek, kimi या glm को तेज़ी से चलाने के लिए सिर्फ hardware में ही कम से कम $50,000 से ज़्यादा चाहिए। OpenAI या Anthropic के करीब performance पाने के लिए सैकड़ों GB high-speed VRAM चाहिए

    • लोग OpenAI का इस्तेमाल ज़्यादातर इसलिए करते हैं क्योंकि वे IT में सहज नहीं हैं। वास्तविक दुनिया में ad blocker इस्तेमाल करने वाले आम लोग बहुत कम हैं। OpenAI ने mass awareness में अपनी जगह बना ली है। अगर इसने Google की तरह ads ठूंसने का रास्ता चुना होता तो शायद और मज़बूत position बना लेता, लेकिन bubble economy और investment fraud जैसी दिशा चुनना गलत आकलन था

  • सबको थोड़ा शांत होने की ज़रूरत है। Altman सब संभाल लेगा। 47 दिनों बाद ChatGPT 6 Recurd नाम का product आएगा और सबको चौंका देगा, जिसमें बेहतर model की जगह पुराने model को recycle किया जाएगा, और 10 ChatGPT 6 plans अपने-आप add-on के रूप में खरीद लिए जाएँगे ताकि यह बहुत बेहतर चले। फिर यह और तेज़ी से upgrade होगा और बार-बार 1% performance improvement देता रहेगा। hyper-exponential growth को कम आँकना आसान है। 2026 की शुरुआत तक यह बिना किसी मानव ग्राहक सीमा के खरबों licenses बेच देगा। Altman ने इसके लिए dedicated coin, automated lending system और compute futures trading तक की योजना बना रखी है। यह पूरी तरह नई दुनिया होगी। ‘Alt/World!’ नाम की नई दुनिया

  • मुझे समझ नहीं आता कि data centers को ‘gigawatt’ में क्यों नापा जाता है। actual compute performance (जैसे flops) में क्यों नहीं? सच कहूँ तो मुझे लगता है कि मैं ‘1 GW’ data center एक 6502 CPU और resistor के ढेर से भी बना सकता हूँ

    • वजह यह है कि power capacity और cooling data center construction की सबसे बड़ी constraints हैं। compute performance समय के साथ बहुत बदलती है, और वास्तव में अगर GB200 जैसे modern chips को आधार मानें, तो 1GW में लगभग 5 exaflops compute संभव है (precision आदि पर निर्भर करता है)

    • मैंने भी हाल में छोटे स्तर पर सही, लेकिन HW/data center operations का अनुभव जुटाते हुए महसूस किया कि GPU की तरह switches, firewall, storage जैसी चीज़ें भी power और cooling बहुत खाती हैं। एक निश्चित scale के बाद असली constraint maximum compute performance, Hz या GB नहीं रहता, बल्कि यह होता है कि आप कितनी बिजली अंदर ला सकते हैं और कितनी गर्मी बाहर निकाल सकते हैं। उदाहरण के लिए, ports पर surplus solar power को बड़े resistors से dissipate करने वाले projects भी हैं। असली समस्या high-voltage power grid से safely जुड़ना और heat को जल्दी बाहर निकालना है

    • hardware और workload के हिसाब से compute performance की units अलग-अलग होती हैं, इसलिए कोई universal measurement लगभग असंभव है। power capacity को उस समय संभव अधिकतम compute capacity का approximate proxy समझ सकते हैं। इससे region, cooling method जैसी कई variables भी cover हो जाती हैं

    • back-of-the-envelope calculation के हिसाब से 1GW में लगभग 1.43 अरब 6502 chips चलाए जा सकते हैं

    • असल unit ‘power’ इसलिए है क्योंकि यही सभी costs का अंतिम unit है, चाहे compute efficiency हो, equipment investment हो या scalability

  • मैं यह ज़ोर देकर कहना चाहता हूँ कि data center बनाने की शुरुआती capital से भी ज़्यादा, बिजली सप्लाई करने वाली utilities ही असली industry bottleneck हैं। अभी North America की power grid में supply बहुत तंग है। वास्तव में बड़े data centers के लिए कितनी spare power capacity उपलब्ध है, और अतिरिक्त capacity कब तक जोड़ी जा सकती है, इस पर गहरी जांच ज़रूरी है। power plant बनाना बेहद धीमा काम है। data center investment plans अक्सर इस धारणा पर चलते लगते हैं कि power capacity ‘जादू की तरह’ प्रकट हो जाएगी या competition है ही नहीं

    • समझ से बाहर है कि इस पहलू पर और ज़्यादा चर्चा क्यों नहीं होती
  • ‘OpenAI अगले 1 साल में $400 billion खर्च करेगा’ इस दावे में समस्या है। असल में OpenAI खुद सीधे invest नहीं करता, बल्कि Oracle जैसी कंपनियाँ data center बनाती हैं और OpenAI rent चुकाता है। यह lease contract है, इसलिए शुरुआत में पूरी construction cost लेकर नहीं बैठता। उदाहरण के तौर पर, OpenAI 2027/2028 से सालाना लगभग $30 billion के स्तर पर rent देना शुरू करेगा, और यह 5 साल में धीरे-धीरे बढ़ेगा। NVIDIA और AMD भी milestones या chip deployment के अनुसार अपना investment वापस पाएँगे, और असल में suppliers OpenAI की growth पर ‘bet’ लगाते हुए credit दे रहे हैं। यह काफ़ी असामान्य और अस्थिर व्यवस्था हो सकती है, लेकिन ‘उसे अभी तुरंत $400 billion cash रखना होगा’ यह गलत तर्क है। असली सवाल यह है कि क्या OpenAI का revenue 2028~2029 तक कम से कम $60~70 billion तक बढ़ सकता है। दावा टिकता नहीं, बल्कि execution timeline और revenue growth की प्रगति ही असली risk है। संदर्भ links: CNBC - OpenAI data center, w.media - Oracle lease contract, CNBC - Nvidia partnership, TechCrunch - AMD chip supply

    • Ed Zitron एक analyst के रूप में कई गलत दावे और factual errors कर रहे हैं। ‘inference cost’ बढ़ रही है, इस ज़ोरदार दावे पर भी एक post लिखा गया है संबंधित लेख

    • OpenAI के WAU (weekly active users) annualized basis पर लगभग 122.8% की दर से बढ़ रहे हैं, लेकिन यह हाल के 10 महीनों पहले वाले 461.8% से नीचे है। अगर growth rate stabilize हो जाए, तो 2028 के अंत तक सालाना revenue अधिकतम $104 billion और 6.4 billion WAU तक पहुँच सकता है। numbers की गारंटी नहीं, लेकिन Oracle और Nvidia को लगता है कि अपनी stock valuation बनाए रखने के लिए इसी संभावना पर टिकना होगा। हकीकत में growth slowdown हर 2 महीने में लगभग 20% है, इसलिए अगले साल इस समय तक शायद सिर्फ 1.2 billion WAU, और उसके अगले साल 1.4 billion WAU तक ही उम्मीद की जा सकती है। Google और Facebook की तुलना में यह अब भी कम है

    • चूँकि OpenAI lease के सहारे ‘टिके रहने’ वाली संरचना में है, इसलिए वास्तविक risk धीरे-धीरे अधिक junior investors या आम जनता, pension subscribers आदि पर शिफ्ट होता जाता है Turtles all the way down देखें

  • Sora 2 और animation controversy को देखकर यह पता चला कि एक औसत TV animation season/film लगभग $10~20 million में बनाया जा सकता है। Sora 2 की actual development cost क्या है, यह तो नहीं पता, लेकिन अगर यह सैकड़ों अरब या खरबों के स्तर पर है, तो इतने पैसों से हजारों animations बनाई जा सकती हैं। यह LLM से थोड़ा अलग मुद्दा है, लेकिन आख़िरकार अगर AI specialized workforce को replace भी करे, तो क्या return on investment इतना जायज़ होगा, इस पर संदेह है

    • सच कहूँ तो Sora 2 की development cost शायद कई billions से काफ़ी कम होगी

    • यह भी सवाल है कि क्या Sora 2 से वास्तव में कोई ‘show’ बनाया जा सकता है। अब तक हमेशा short-form video की बात सुनने को मिलती है, proper series बनाने के लिए अभी तकनीकी छलांग की ज़रूरत लगती है

    • Sora, Google Flow जैसे tools के साथ आगे चलकर amateurs भी कम लागत में professional-quality content बना सकेंगे। हजारों animations बनाना कोई असंभव क्षेत्र नहीं रहेगा

    • मुझे लगता है कि ऐसे विशाल investment को सिर्फ chatbot ROI से आगे की किसी चीज़ से justify करना होगा

  • जिज्ञासा है कि इतना सारा पैसा वास्तव में कितनी तेज़ी से power plants, data centers, silicon design और manufacturing जैसी चीज़ों में लगाया जा सकता है, क्या infrastructure industry भी तेज़ bubble के बाद बड़े correction से गुज़रेगी, या सचमुच industrial-revolution स्तर का बदलाव आएगा। high-security embedded systems infrastructure startup के लिए co-founder बनने का प्रस्ताव भी है

    • gold recycling को छोड़कर, मुझे नहीं लगता कि tech industry में असली अर्थों में कोई ‘sustainable’ चीज़ मौजूद है
  • सवाल यह भी है कि Anthropic को इसी तरह की capital need क्यों नहीं दिखती

    • Anthropic अपने costs disclose करने में ज़्यादा conservative है। Ed Zitron अभी GCP cost को क़रीब से track कर रहे हैं

    • यह ‘AGI’ बनाने से जुड़ी चर्चा है, इसलिए Anthropic की current services से अलग है। और यह भी तय नहीं कि intelligence compute के साथ अनंत रूप से बढ़ती ही जाएगी

    • शायद Anthropic को भी असल में इसी तरह के investment की ज़रूरत होगी। बस लेखक OpenAI पर केंद्रित लगता है

    • अगर growth जारी रही, तो Anthropic को भी बड़े investment की ज़रूरत पड़ेगी

    • लगता है Anthropic overflow के समय TPU का अधिक आक्रामक इस्तेमाल करता है। हाल की Claude performance गिरावट TPU और implementation-difference bugs की वजह से थी, और इससे उनकी Nvidia/TPU mixed operation के बारे में कुछ अनुमान लगाया जा सका। अभी तक ऐसा नहीं लगता कि OpenAI ने Google infrastructure पर model weights deploy किए हैं

  • मैं यह भी पूछना चाहता हूँ कि अगर data center का capex model 100% utilization को target करे, और node uptime/availability से ज़्यादा capex efficiency महत्वपूर्ण हो, तो चीज़ें कैसे बदलेंगी। मुझे लगता है NVIDIA आदि के margins adjust होने पर cost 1~2 digits तक नीचे आने की गुंजाइश हो सकती है। अगर OpenAI पारंपरिक data centers से अलग, कम reliability वाले data centers सस्ती locations पर बनाए, तो यह कुछ हद तक realistic लग सकता है। फिर भी, OpenAI के अगले साल तक data centers पर $40 billion से ज़्यादा झोंकने की संभावना काफ़ी है। मौजूदा data centers availability के प्रति बहुत sensitive होते हैं, लेकिन इस scale पर OpenAI शायद rack uptime या पूरे facility uptime की उतनी परवाह न करे

    • जिन्होंने numbers खुद निकालकर देखे हैं, वे अब भी Tier IV-grade reliability चाहते हैं। ‘Tier 0’ class (सबसे सस्ती reliability) वाले crypto-mining data centers को वास्तव में AI use के लिए convert होते मैंने नहीं देखा है