• AI इंटेलिजेंस के commoditization में तेज़ी के साथ, जब सभी कंपनियाँ सर्वश्रेष्ठ मॉडल की दौड़ में कूद पड़ी हैं, भारी नकदी भंडार रखने वाला Apple उलटे ज़्यादा फायदेमंद स्थिति में आता दिख रहा है
  • OpenAI, $300B valuation के बावजूद, Sora सेवा बंद होने और Stargate Texas रद्द होने जैसी घटनाओं के जरिए यह दिखा रहा है कि स्पष्ट revenue model के बिना infrastructure investment कितना जोखिम भरा हो सकता है
  • 2.5 अरब active devices और on-device processing आर्किटेक्चर की बदौलत, Apple के पास व्यक्तिगत context data और privacy-केंद्रित design के रूप में एक moat है
  • ओपन-वेट मॉडल Gemma 4 ने Claude Sonnet 4.5 Thinking के बराबर प्रदर्शन दिखाया है, और मॉडल अब लैपटॉप पर भी चलने लायक हो गए हैं, जिससे मॉडल गैप तेज़ी से घट रहा है
  • Apple Silicon की unified memory architecture बड़े मॉडलों को लोकल तौर पर चलाना संभव बनाती है, और MLX framework के जरिए ecosystem विस्तार की नींव तैयार हो रही है
  • चाहे यह रणनीति हो या संयोग, Apple ने AI युग के लिए अनुकूलित hardware-software foundation पर नई प्रतिस्पर्धी बढ़त हासिल कर ली है

AI प्रतिस्पर्धा में "हार" चुके Apple की ‘आकस्मिक moat’

  • इंटेलिजेंस के commoditized होने की प्रवृत्ति में, जैसे-जैसे कंपनियाँ बेहतर मॉडल बनाती हैं, प्रतिस्पर्धी मॉडल भी उन्हें तेज़ी से पकड़ लेते हैं
    • बड़े पैमाने के training investment से पिछली पीढ़ी के मॉडलों की लागत घटती है, और frontier models और open source models के बीच का अंतर तेज़ी से सिमटता है
    • Gemma 4, Kimi K2.5, GLM 5.1 जैसे नए ओपन मॉडल अब व्यक्तिगत hardware पर भी पर्याप्त रूप से चलने लायक हो गए हैं
    • दूसरी ओर OpenAI जैसी कंपनियों की भारी लागत संरचना और अस्थिर revenue model उनकी sustainability पर सवाल उठाते हैं
  • यह बदलाव ‘AI loser’ कहलाने वाले Apple के पक्ष में काम कर रहा है
    • Apple के पास Siri सबसे पहले था, लेकिन ChatGPT के लॉन्च के बाद उसके पास न तो flagship frontier model है और न ही $500B के compute investment का वादा, इसलिए उसे "AI loser" कहा गया
    • जब दूसरे AI labs और big tech लेटेस्ट benchmark में नंबर 1 बनने के लिए भारी पैसा जला रहे थे, Apple अप्रयुक्त नकदी जमा करता रहा और share buyback भी बढ़ाता रहा, जिससे उसके विकल्प और बढ़े

OpenAI का अत्यधिक खर्च और जोखिम

  • OpenAI ने $300B valuation पर फंड जुटाने के बाद Sora वीडियो सेवा को लगभग $15M प्रतिदिन की लागत और $2.1M revenue पर चलाया, और अंततः सेवा बंद करनी पड़ी
  • Disney, Marvel, Pixar, Star Wars कैरेक्टर कंटेंट बनाने के लिए Sora के साथ 3-वर्षीय लाइसेंस डील और OpenAI में $1B equity investment पर काम कर रहा था, लेकिन Sora बंद होने से यह $1B निवेश रुक गया
  • infrastructure स्तर पर OpenAI ने Samsung और SK Hynix के साथ प्रति माह अधिकतम 900,000 DRAM wafers (वैश्विक उत्पादन का लगभग 40%) के लिए non-binding letter of intent साइन किया
  • Micron ने इस demand signal को देखकर 29 साल पुराने Crucial consumer memory brand को बंद कर AI ग्राहकों की तरफ रुख किया, लेकिन Stargate Texas रद्द होने के बाद मांग गायब हो गई और Micron का शेयर बुरी तरह गिर गया
  • benchmark स्कोर या infrastructure के आकार से अलग, अनुमानित revenue में एक छोटी-सी गलती भी किसी खिलाड़ी को खेल से बाहर कर सकती है

इंटेलिजेंस से capability की ओर बदलाव

  • AI labs की मूल धारणा यह थी कि raw model capability (इंटेलिजेंस) और उसे चलाने वाला infrastructure दुर्लभ संसाधन बने रहेंगे, लेकिन कम शक्तिशाली मॉडल भी तेज़ी से पुराने frontier models के स्तर तक पहुँच रहे हैं
  • Google का ओपन-वेट मॉडल Gemma 4 फोन पर चल सकता है, MMLU Pro में 85.2% स्कोर करता है, और Arena leaderboard में Claude Sonnet 4.5 Thinking के बराबर है
    • पहले ही हफ्ते में 20 लाख downloads
    • जो मॉडल 18 महीने पहले SOTA थे, वे अब लैपटॉप पर चल रहे हैं और हर तिमाही बेहतर हो रहे हैं
  • AMD Ryzen AI Max+ पर Gemma 4 को सीधे चलाने के नतीजे में token/second प्रदर्शन और इंटेलिजेंस स्तर इतने अच्छे मिले कि व्यक्तिगत टूल्स का backend इस मॉडल पर output quality गिराए बिना शिफ्ट कर दिया गया
  • Anthropic ने इस रुझान को समझकर Claude Code, Claude Cowork, Claude Managed Sessions जैसे व्यावहारिक टूल तेज़ी से लॉन्च किए हैं, ताकि उपयोगकर्ताओं को अपने ecosystem में lock-in किया जा सके
    • मूल तर्क: अगर मॉडल खुद moat नहीं बन सकता, तो usage layer पर कब्ज़ा करना होगा और switching cost बढ़ानी होगी
    • एक विश्लेषण के अनुसार Max प्लान ($200) subscriber लगभग $27,000 के बराबर compute इस्तेमाल कर रहे हैं, यानी labs मांग को subsidy देकर बनाए रख रही हैं
  • Apple AI infrastructure और user token consumption को subsidize करने पर लगभग कुछ भी खर्च नहीं कर रहा, इसलिए उसके पास दूसरी कंपनियों की तुलना में ज़्यादा विकल्प और leverage है

context ही प्रमुख संसाधन है

  • जैसे-जैसे इंटेलिजेंस प्रचुर होती जाती है, context दुर्लभ संसाधन बन जाता है
    • जो मॉडल सब कुछ reason कर सकता है लेकिन उपयोगकर्ता के बारे में कुछ नहीं जानता, वह सिर्फ एक generic tool है
    • रोज़मर्रा की ज़िंदगी में AI को सचमुच उपयोगी बनने के लिए reasoning capability के साथ personal context (messages, calendar, code, health data, photos, habits आदि) चाहिए
  • Apple के पास 2.5 अरब active devices के जरिए यह context पहले से मौजूद है
    • Apple Watch का health data, iPhone photos, notes, messages, location history, app behavior, email, और device sensors के जरिए environment awareness
  • on-device processing के जरिए डेटा को device के बाहर भेजे बिना मॉडल को पूरा context देना संभव है
    • "Privacy. That's iPhone" की positioning सिर्फ PR नहीं, बल्कि मुख्य value proposition बन सकती है
    • OpenAI को medical records और 15 साल की photos देना, और सिर्फ device के भीतर चलने वाले मॉडल को access देना — ये मूल रूप से अलग बातें हैं
  • Google के साथ Apple की Gemini deal ($1B) उन queries के लिए है जिन्हें cloud-grade reasoning चाहिए, और इसकी लागत OpenAI के साप्ताहिक compute cost की तुलना में rounding error जैसी है
    • Apple ने अपने पास जो रखा: context layer, on-device stack, और सब कुछ orchestrate करने वाला operating system

Apple Silicon AI के लिए क्यों उपयुक्त है

  • OpenClaw के लॉन्च के बाद Mac Mini की मांग ने दिखाया कि Apple Silicon को AI के लिए नहीं, बल्कि efficiency, battery, thermal performance, और hardware/software integration के लिए बनाया गया था — लेकिन यह लोकल मॉडल रन करने के लिए बेहद उपयुक्त architecture निकला
  • मुख्य डिज़ाइन: unified memory
    • पारंपरिक architecture में CPU और GPU अलग chip और अलग memory pool में होते हैं, जिससे data movement धीमा और power consumption ज़्यादा होता है
    • Nvidia GPU matrix operations में तेज़ हैं, लेकिन PCIe bus के जरिए CPU-GPU data transfer bottleneck बन जाता है
    • Apple M-series/A-series में CPU, GPU, और Neural Engine एक ही die पर होते हैं और एक shared high-bandwidth memory pool का उपयोग करते हैं, इसलिए bus crossover, transfer overhead और latency नहीं के बराबर है
  • LLM inference में bottleneck अभी compute नहीं, memory bandwidth है
    • असली बात यह है कि model weights को memory से compute units तक कितनी तेज़ी से stream किया जा सकता है, और KV cache रखने के लिए कितनी memory उपलब्ध है
    • Apple का unified memory pool सभी compute units को एक साथ high-bandwidth direct access देता है
  • LLM in a Flash तकनीक Apple hardware पर खास तौर से असरदार है
    • M3 Max Mac पर Qwen 397B (209GB model) को सिर्फ 5.5GB active RAM के साथ ~5.7 tokens/second पर चलाने का उदाहरण
    • weights SSD में रखे गए और ~17.5 GB/s की रफ्तार से stream हुए; MoE(Mixture-of-Experts) architecture की वजह से हर token केवल कुछ expert layers को सक्रिय करता है
    • इस execution के लिए लगभग 5,000 lines of Objective-C और Metal shaders Claude ने लिखे

platform dynamics और App Store जैसी ubiquity

  • App Store की तरह Apple ने खुद ऐप्स नहीं बनाए; उसने ऐसा platform बनाया जिस पर ऐप्स सबसे अच्छा चलें, और ecosystem अपने आप आया
    • developers ने Apple के कहने पर नहीं, बल्कि user base, tools, और consistent hardware की वजह से iOS को target किया
  • लोकल inference में भी यही चीज़ हो सकती है
    • MLX पहले ही on-device AI के de facto standard framework के रूप में उभर रहा है
    • Gemma, Qwen, Mistral जैसे प्रमुख model architectures MLX को support करते हैं
    • Apple मॉडल रेस न भी जीते, तब भी वह मॉडल (या agent) चलने वाला de facto platform बन सकता है
    • OpenClaw के वायरल होने के बाद Mac Mini की मांग इस संभावना का उदाहरण है

रणनीति थी, या किस्मत?

  • Apple की hardware/software integration strategy कई वर्षों से उसकी मुख्य दिशा रही है, और privacy positioning, on-device processing पर ज़ोर, तथा जब उद्योग Nvidia और Intel पर निर्भर था तब खुद का silicon बनाने का फैसला — ये सभी व्यावसायिक रूप से जोखिम भरे विकल्प थे
    • ये फैसले AI के लिए नहीं, बल्कि cost और governance के कारण लिए गए थे, लेकिन नतीजतन AI युग में उसके पक्ष में गए
  • जिन बातों का Apple ने शायद अनुमान नहीं लगाया था:
    • unified memory architecture का LLMs के लिए लगभग परफेक्ट साबित होना
    • open-weight models का इतनी तेज़ी से आगे बढ़ना
    • 400B parameter model को SSD से stream करना वास्तव में काम करना
  • इसका कुछ हिस्सा किस्मत है, लेकिन यह उस तरह की किस्मत है जो सही foundation बनाने वाली कंपनियों को मिलती है
  • जब बाकी उद्योग 3 साल तक सर्वश्रेष्ठ मॉडल की होड़ में जुटा रहा, Apple साइडलाइन से यह देखता रहा कि उसके devices और ecosystem इस भविष्य में कैसे फिट बैठते हैं
  • Siri की सीमाएँ जैसी कुछ अधूरी चीज़ें अब भी हैं, लेकिन
    • 2.5 अरब devices, पूरा personal context, dedicated silicon पर लोकल मॉडल रन करना, और कठिन queries के लिए Gemini on-call
    • fixed CAPEX के बजाय variable cost-based inference structure को AI के व्यापक होने वाले दौर में कमजोर स्थिति कहना मुश्किल है
  • निष्कर्षतः, AI-केंद्रित भविष्य में भी Apple के महत्वपूर्ण बने रहने की संभावना है
    • चाहे रणनीति हो या संयोग, मुख्य बात यह है कि वह सही foundation पर खड़ा है

अभी कोई टिप्पणी नहीं है.

अभी कोई टिप्पणी नहीं है.