1 पॉइंट द्वारा GN⁺ 1 시간 전 | 1 टिप्पणियां | WhatsApp पर शेयर करें
  • Anthropic ने SpaceX के साथ पार्टनरशिप और हाल में किए गए कई compute contracts के जरिए Claude Code और Claude API की usage limits बढ़ाने की घोषणा की
  • Claude Code की 5 घंटे की usage limit 2 गुना बढ़ाई गई है (Pro, Max, Team, seat-based Enterprise plans), और Pro व Max accounts में peak hours limit reduction हटा दी गई है
  • Claude Opus model की API rate limits को भी काफी बढ़ाया गया है, और अतिरिक्त capacity सीधे Claude Pro व Claude Max subscribers के available usage को बेहतर बनाती है
  • Anthropic ने SpaceX के Colossus 1 data center की पूरी compute capacity इस्तेमाल करने का contract किया है, जिससे एक महीने के भीतर 300MW से अधिक नई capacity और 220,000 से ज्यादा NVIDIA GPU तक पहुंच मिलेगी
  • Anthropic का compute expansion Amazon, Google और Broadcom, Microsoft और NVIDIA, तथा Fluidstack के साथ हुए contracts के अतिरिक्त आगे बढ़ रहा है, और इसके साथ regional infrastructure, power cost burden, और community investment पर भी विचार किया जा रहा है

Claude usage limits का विस्तार

  • Anthropic ने SpaceX के साथ पार्टनरशिप और हाल में किए गए compute contracts के जरिए Claude Code और Claude API की usage limits बढ़ाई हैं
  • ये तीनों बदलाव घोषणा वाले दिन से ही लागू हो गए
  • Pro, Max, Team, और seat-based Enterprise plans में Claude Code की 5 घंटे की usage limit 2 गुना बढ़ाई गई
  • Pro और Max accounts में Claude Code की peak hours limit reduction हटा दी गई
  • Claude Opus model की API rate limits भी काफी बढ़ाई गईं

SpaceX के साथ नई compute partnership

  • Anthropic ने SpaceX के Colossus 1 data center की पूरी compute capacity इस्तेमाल करने का contract किया है
  • इस contract से एक महीने के भीतर 300MW से अधिक नई capacity और 220,000 से ज्यादा NVIDIA GPU तक पहुंच मिलेगी
  • अतिरिक्त capacity सीधे Claude Pro और Claude Max subscribers के available usage को बेहतर बनाती है
  • यह contract Anthropic की पहले की प्रमुख compute expansion घोषणाओं के अतिरिक्त है
  • Claude की training और inference में AWS Trainium, Google TPUs, NVIDIA GPUs जैसे कई AI hardware इस्तेमाल होते हैं
  • Anthropic अतिरिक्त capacity को online लाने के अवसर तलाशना जारी रखे हुए है
  • SpaceX contract के हिस्से के रूप में, कई GW स्तर की orbital AI compute capacity विकसित करने के लिए SpaceX के साथ सहयोग में भी रुचि दिखाई गई है

अंतरराष्ट्रीय विस्तार और regional infrastructure

  • financial services, healthcare, और government जैसे highly regulated industries के enterprise customers को compliance और data residency requirements पूरी करने के लिए regional infrastructure की जरूरत लगातार बढ़ रही है
  • इसी वजह से Anthropic की कुछ capacity expansion अंतरराष्ट्रीय स्तर पर की जा रही है
  • Amazon के साथ हाल में घोषित collaboration में Asia और Europe में अतिरिक्त inference capacity शामिल है
  • capacity जोड़ने के लिए क्षेत्रों का चयन सावधानी से किया जाता है, और ऐसे लोकतांत्रिक देशों के साथ काम किया जाता है जिनके पास बड़े निवेश का समर्थन करने वाला कानूनी और regulatory framework हो
  • compute के लिए जरूरी hardware, networking, और facility supply chain का सुरक्षित होना भी एक अहम मानदंड है

बिजली लागत और community investment

  • Anthropic ने हाल ही में वादा किया कि अगर अमेरिका में उसके data centers की वजह से consumers के electricity bills बढ़ते हैं, तो वह इस अतिरिक्त लागत को वहन करेगा
  • अंतरराष्ट्रीय विस्तार के हिस्से के रूप में, इस वादे को नए jurisdictions तक बढ़ाने के विकल्प पर विचार किया जा रहा है
  • जिन communities में facilities स्थित हैं, वहां दोबारा निवेश करने के लिए स्थानीय leaders के साथ सहयोग के विकल्प भी आगे बढ़ाए जा रहे हैं

1 टिप्पणियां

 
GN⁺ 1 시간 전
Hacker News की राय
  • लगता है AI अर्थव्यवस्था इसी दिशा में जाएगी: inference सस्ता होता जाएगा, और specialized accelerators बाज़ार में आने के साथ price competition शुरू होगी
    वहीं training महंगी ही बनी रहेगी, इसलिए Anthropic/OpenAI training business की तरफ जाएँगे
    मॉडल किराये पर मिलने वाली यूनिट या खरीदी जा सकने वाली asset बन जाएँगे, और user inference hardware पर उन्हें चलाएँगे, inference hardware किराये पर लेंगे, या खुद own करेंगे
    या फिर ऐसी कंपनियों को premium देंगे जो यह सब उनकी तरफ से संभालें
  • 300 मेगावॉट की नई capacity और 220,000 से अधिक NVIDIA GPUs का पैमाना सच में बेहिसाब बड़ा है
    जिज्ञासा है कि Opus जैसे नए मॉडल की inference side के लिए किस तरह का infrastructure इस्तेमाल होता है—क्या इस पर कोई blog post वगैरह है?
    शायद यह secret होगा, लेकिन अगर AWS Bedrock में model सीधे इस्तेमाल किया जा सकता है, तो क्या उससे कुछ संकेत नहीं मिलते?
    • शायद बात computing infrastructure की थी, लेकिन power infrastructure भी दिलचस्प है
      data center में operational scaling की speed अक्सर cost से ज्यादा अहम होती है, इसलिए कई बार चीजें बेवकूफी भरे तरीके से चलाई जाती हैं
      power utility regulation होते हैं, और grid को बिगाड़ने से रोकने के लिए ramp rate जैसी चीजें भी होती हैं, लेकिन कहा जाता है कि data center इन्हें बुरी तरह तोड़ रहे हैं
      load variability बहुत ज्यादा होती है, इसलिए meter के पीछे natural gas generation से power दी जाती है, और जो shaft मूल रूप से 7 साल चलनी चाहिए थी, वह बार-बार start-stop होने की वजह से सिर्फ 10 महीने चलती है
      https://www.volts.wtf/p/doing-data-centers-the-not-dumb-way
      computing side पर NVIDIA की standard reference design मौजूद है
      https://www.nvidia.com/en-us/technologies/enterprise-referen...
      मैंने विस्तार से नहीं देखा, लेकिन शायद इसमें Mellanox inter-GPU networking, GPU पर tensor बाँटने वाला बड़े पैमाने का custom code, और GPU nodes के बीच activations ले जाने वाला code होगा
    • बात बिल्कुल वैसी नहीं है
      Anthropic अपने models को AWS Bedrock के भीतर managed service के रूप में host कर रहा है, और customer LLM को उसी तरह call करते हैं जैसे कोई और API call करते हों
      उन API requests को कौन-सा AWS infrastructure serve कर रहा है, यह दिखाई नहीं देता
  • Anthropic, Grok के लिए Elon द्वारा बनाए गए data center को किराये पर ले रहा है—यह किसी plot twist जैसा लगता है जिसे गढ़ा नहीं जा सकता
    • SpaceX के नजरिये से देखें तो यह काफी चतुराई भरा कदम है
      Grok जैसी cash-burning asset के लिए बने infrastructure को IPO से पहले एक बड़े revenue source में बदला जा रहा है
    • वह merger मुझे तो काफ़ी साफ तौर पर ऐसा लगा जैसे investor को खुश रखते हुए xAI को चुपचाप समेटने का तरीका हो
      साथ ही Twitter debt को जनता पर डालने का माध्यम भी, तो accountants वाकई काफ़ी सक्षम लगते हैं
    • यह दोनों कंपनियों के लिए समझ में आने वाला twist है
      Anthropic को growth जारी रखने के लिए बहुत ज़रूरी compute मिल जाता है, Elon ऐसी compute capacity किराये पर दे सकता है जिसे xAI Grok demand कम होने की वजह से ठीक से इस्तेमाल नहीं कर पा रहा था, और SpaceX IPO की books में revenue दिखा सकता है
      “हम ऐसे लोकतांत्रिक देशों के साथ काम करते हुए capacity सोच-समझकर बढ़ाएँगे, जिनके पास इस स्तर के निवेश को support करने वाला कानूनी और regulatory framework है” — इसे अगर वास्तविक भाषा में अनुवाद करें, तो मतलब कुछ ऐसा है: “हम profit को सबसे ऊपर रखेंगे”
      Elon, Trump का समर्थन करने वाला far-right झुकाव वाला व्यक्ति है, और Trump खुद भी बहुत लोकतांत्रिक नहीं है, लेकिन मतलब यह है कि हमें सचमुच और पैसे चाहिए
      शायद यह xAI द्वारा Middle East की गैर-लोकतांत्रिक सरकारों से funding लेने वाली बात भुलाने की कोशिश भी है, और अगर Anthropic अपने models बेच पाए तो शायद Chinese compute भी खरीद ले
  • एक महीने के भीतर वाला हिस्सा सबसे ज्यादा दिमाग घुमाने वाला है
    data center कोई plug-and-play gear नहीं है जिसमें अच्छी तरह लिखी specs और international standard interfaces हों
  • “इस agreement के हिस्से के रूप में, SpaceX के साथ कई gigawatt की orbital AI computing capacity विकसित करने में रुचि जताई गई” — इस वाक्य को देखकर लगता है कि या तो Anthropic इस space project को आम लोगों से कहीं ज्यादा गंभीरता से लेता है, या फिर यह लाइन डालना compute पाने की deal की शर्त थी
    • मैं 100% इस बात से सहमत हूँ कि यह लाइन डालना compute पाने की deal की शर्त थी
    • Anthropic को जितना भी compute मिल सके, सब चाहिए
      अगर Elon orbital data center बनाना चाहता है, तो Anthropic खुशी-खुशी उस पर अपने models चलाएगा
      Elon orbital data center बना सकता है या नहीं, इस पर मुझे बहुत शक नहीं है; असली सवाल है कि क्या यह ground-based systems की तुलना में economically viable होगा
    • मुझे नहीं लगता space computing चलेगी, लेकिन “अगर बाद में अच्छा price मिला तो हम खुशी से खरीदेंगे” कहना तो स्वाभाविक ही है
      हुआ तो ठीक, नहीं हुआ तो नहीं हुआ
    • यह बस सत्ता में बैठे व्यक्ति को खुश करने जैसा लगता है
      जमीन पर data center access पाने की deal के हिस्से के रूप में, साफ तौर पर अविश्वसनीय space-orbit computing को उससे कहीं ज्यादा गंभीर चीज़ की तरह पेश किया जा रहा है
      मुझे लगता है कि कभी न कभी ऐसी चीज़ संभव हो सकती है, लेकिन FSD की तरह यह अभी वास्तविकता से बहुत दूर लगती है
      ऐसा कहने की लागत लगभग शून्य है, और बाद में बस यह कह सकते हैं कि अब रुचि नहीं रही
      अगर कोई लागत है भी, तो बस थोड़ी reputational damage
    • ज़्यादातर बड़े tech CEOs कभी न कभी ऐसी बातें कर चुके हैं
  • Colossus 1 data center ऐसी जगह है जहाँ अवैध बिजली इस्तेमाल की जाती है, Memphis के पास गरीब इलाकों की हवा प्रदूषित होती है, और संभव है कि पानी भी प्रदूषित हो
    यह grid पर अतिरिक्त demand डालता है और extreme weather के दौरान बड़े power outage पैदा करके स्थानीय लोगों को और ज्यादा जोखिम में डाल सकता है
    https://en.wikipedia.org/wiki/Colossus_(supercomputer)#Envir...
    इसलिए Anthropic भी safety की बहुत बात करता है, लेकिन व्यवहार में उसे profit को safety से ऊपर रखने वाली कंपनी की सूची में रखा जा सकता है
    • यहाँ अवैध शब्द थोड़ा ज़्यादा कड़ा है
      आपके दिए Wikipedia link में भी permit से जुड़ी कुछ बारीकियों की संभावना बताई गई है, लेकिन मैंने ऐसा कुछ नहीं देखा जो यह कहे कि बिजली “अवैध” है
    • समझ नहीं आता कि data center पानी को कैसे प्रदूषित करेगा
      वह कोई chemicals बनाता नहीं और ऐसा काम करता भी नहीं
    • print में छपी हर allegation सच नहीं होती
      ऐसे आरोपों को लेकर बहुत skeptical होना चाहिए, खासकर जब किसी बड़े फंड वाले corporate का मामला हो, क्योंकि सिर्फ “plausible और persistent” harm claims के आधार पर भी lawsuit या settlement pressure आ सकता है
    • खोजने पर लगता है कि ज़्यादातर data centers उस data center से होने वाले revenue पर लगभग कोई state tax नहीं देते
      अगर यह सच है तो यह एक बड़ा tax loophole है, और फिर data center में इतना अधिक capital investment होना भी चौंकाने वाला नहीं है
      [0] https://www.datacenterknowledge.com/regulations/how-are-data...
  • अगर weekly limit भी दोगुनी नहीं होती, तो 5 घंटे की rate limit को दोगुना करना सिर्फ marketing है
    इसका मतलब बस इतना है कि 5 दिन की बजाय 3 दिन में weekly limit तक पहुँचा जा सकता है
    • मैं weekly limit के पास भी कभी नहीं पहुँचा, लेकिन hourly limit से अक्सर टकराया हूँ
    • $100 plan पर जाने के बाद पिछले 5 महीनों में शायद मैं दोनों में से किसी भी limit से नहीं टकराया
      भारी इस्तेमाल वाले हफ्तों में मैं रोज़ 6 घंटे से ज्यादा लगातार इस्तेमाल करता हूँ
      हालांकि मैं हमेशा sessions को 200k~250k tokens से नीचे रखने को लेकर काफी सख्त रहता हूँ
    • व्यक्तिगत रूप से मैं basic Claude Code subscription इस्तेमाल करता हूँ, और weekday शाम या weekend पर 1~2 घंटे coding करके दिमाग हल्का करने के लिए इसका उपयोग करता हूँ
      हर हफ्ते लगभग 3~5 sessions होते हैं
      ज्यादा complex काम करूँ तो 5 घंटे की window जल्दी खत्म हो जाती है, जो frustrate करता है, लेकिन अभी तक weekly limit तक नहीं पहुँचा
      लगता है मेरे जैसे लोग काफी होंगे
    • सही, असली limiting factor weekly limit ही है
      अगर सच में push करो, तो $200/month Max plan की weekly limit भी एक दिन में आसानी से खत्म की जा सकती है
    • अभी भी जिद में इस्तेमाल कर रहा Opus 4.6 के हिसाब से, मेरे workflow में 5 घंटे की window के भीतर लगभग weekly usage का 10% खर्च हो जाता है
      मैं दिमाग में weekly usage को day-level पर, यानी लगभग 14% per day मानकर चलता हूँ, ताकि हफ्ते की शुरुआत में कम खर्च करूँ और बाद में थोड़ा खुलकर इस्तेमाल कर सकूँ
      फिर आख़िरी दो दिनों में यह सोचता रह जाता हूँ कि बची हुई usage कैसे खत्म करूँ
      5 घंटे की window इसे और मुश्किल बना देती है, और हफ्ते के आख़िरी दिन तो जागते रहने के हर हिस्से में हर 5 घंटे पर 10% डालने की कोशिश करनी पड़ती है, जो बेहद नापसंद है
      मैं अपने सबसे productive समय में काम करना चाहता हूँ, किसी बेवकूफ time window के हिसाब से नहीं
      मैं यह नहीं सोचना चाहता कि “मुझे शायद 11 बजे Claude सबसे ज्यादा इस्तेमाल करना होगा, तो 7:30 बजे Haiku को कोई बेवकूफ message भेजकर 5 घंटे की window शुरू कर दूँ ताकि 12:30 पर फिर reset हो जाए”
      इसलिए यह बदलाव स्वागतयोग्य है, लेकिन यह 100% खुद बनाई हुई समस्या को थोड़ा नरम करके user पर एहसान जताने जैसा है
      peak-time usage कम करने की मंशा समझ में आती है, फिर भी यह नापसंद है
  • कहा जा रहा है कि Claude Code की 5 घंटे की rate limit को Pro, Max, Team और seat-based Enterprise plans में दोगुना किया जाएगा, Pro और Max में peak-time throttling हटाई जाएगी, और Claude Opus model की API rate limits भी काफी बढ़ाई जाएँगी
    कुल मिलाकर ऐसा लगता है कि Elon ने xAI छोड़कर compute बेचने का रास्ता चुना है
    • पता नहीं यह उसी data center से जुड़ा है या नहीं, लेकिन यह announcement उन कई हालिया Grok models के चुपचाप हटाए जाने के कुछ ही घंटों बाद आया, जिन्हें सिर्फ छोटे notice के साथ retire कर दिया गया था
      Grok 4.1 Fast, X पर research करने का सबसे सस्ता तरीका था, X API से भी सस्ता, लेकिन 15 मई को गायब हो गया
      https://docs.x.ai/developers/models
      शायद बेचने के लिए compute खाली की जा रही हो
    • अभी यह तय नहीं कहा जा सकता कि Elon ने xAI छोड़ दिया है
      लेकिन Gemma और Qwen जैसे open source models इतनी तेजी से बेहतर हो रहे हैं कि शायद Anthropic भी long term में अपने models और tools की value पर असली खतरा देख रहा है
      मूल रूप से, अगर मैं Anthropic या xAI की जगह होता, तो जहाँ-जहाँ संभव हो revenue बनाता और देखता कि आख़िर में क्या टिकता है
      जब सब कुछ इतना volatile हो, तो monopoly dominance के पीछे भागने का खास मतलब नहीं
    • details secret हैं
      यह बस बेकार जा रहे GPU time का उपयोग भी हो सकता है, या Anthropic ने ऐसी offer दी हो जिसे ठुकराना मुश्किल हो
      सिर्फ अनुमान है, लेकिन अगर Elon के लिए यह “refuse न कर सकने वाली offer” थी, तो शायद Anthropic ने कुछ training data या technology देने का वादा किया हो
    • सच कहूँ तो यह अच्छा विचार भी हो सकता है
      xAI को गंभीर research lab मानना मुश्किल है
    • मुझे नहीं लगता यह छोड़ना है
      इससे Claude कैसे काम करता है, इस बारे में अंदरूनी जानकारी मिलेगी, और Claude usage data का बहुत बड़ा प्रवाह भी
      यह सब आगे चलकर Grok development में काम आएगा
  • काश यह खबर मुझे दो दिन पहले पता चलती
    मैंने कुछ दिनों तक Claude Code इस्तेमाल किया, बार-बार limit से टकराया, और Max पर upgrade करने की कोशिश की, लेकिन upgrade flow में Persona के जरिए identity verification माँगी गई
    मैंने सोचा ठीक है, upgrade cancel कर देता हूँ, लेकिन इससे मेरे मौजूदा plan की Claude Code access भी पूरी तरह block हो गई, और verification पूरा किए बिना उसे खोलना संभव नहीं रहा
    मैं ऐसा कभी नहीं करूँगा, और यह वाकई बहुत खराब अनुभव था
    अगर कोई अच्छी बात हुई, तो वह यह कि इससे पता चला Deepseek कहीं सस्ता है और reverse-engineering काम में लगभग बराबर है
  • limits की वजह से मैंने आखिरकार subscription cancel कर दिया, और अपना workflow पूरी तरह pi के साथ model-agnostic बना लिया
    अच्छी खबर है, लेकिन मैं वापस नहीं जाऊँगा
    Anthropic ने बहुत कम समय में बहुत सारी गलतियाँ कीं और मुझे खो दिया
    Opus की जगह अब GPT 5.5, DeepSeek, Kimi, Qwen ने ले ली है, और ये सभी मेरे एकल harness के साथ models को आसानी से switch करने देते हैं
    अगर इनमें से कोई भी वही हरकतें करने लगे, तो मैं तुरंत बदल सकता हूँ