- इस साल वैश्विक Big Tech की 4 सबसे बड़ी कंपनियां 344 अरब डॉलर AI पर खर्च कर रही हैं, और इसका अधिकांश हिस्सा large language model (LLM) के training और operation के लिए data center में निवेश किया जा रहा है
- LLM पहले ही इतने लोकप्रिय हो चुके हैं कि 70 करोड़ से अधिक लोग हर हफ्ते ChatGPT का इस्तेमाल करते हैं, लेकिन उनकी प्रगति की रफ्तार धीमी पड़ रही है और hallucination, ऊंची लागत, और मामूली performance improvement जैसी सीमाएं सामने आ रही हैं
- चीन की DeepSeek ने छोटे और अधिक efficient model पेश कर बाज़ार को चौंकाया, और Covariant (robotics), Atman Labs (non-deep-learning approach) जैसी कंपनियां physical world-responsive AI की खोज कर रही हैं
- हालिया research के अनुसार LLM की social reasoning ability कुछ गिनी-चुनी विशेषताओं पर निर्भर करती है और छोटे बदलावों से भी कमजोर पड़ सकती है; OpenAI ने भी vulnerable groups के safety guardrails fail होने की संभावना स्वीकार की है
- विशेषज्ञ LLM को सिर्फ ‘token generator’ बताते हुए आलोचना कर रहे हैं, और चेतावनी देते हैं कि एक ही तकनीक के प्रति जुनून बाज़ार की अस्थिरता बढ़ा सकता है, इसलिए नए approaches के उभरने की संभावना के लिए तैयार रहना चाहिए
विशाल AI निवेश और LLM-केंद्रित सोच
- हर निवेशक जानता है कि "सारे अंडे एक ही टोकरी में नहीं रखने चाहिए", तो फिर Silicon Valley artificial intelligence (AI) बनाने के सिर्फ एक ही तरीके पर दांव क्यों लगा रही है?
- दुनिया की 4 सबसे बड़ी tech कंपनियां 2025 में AI पर 344 अरब डॉलर निवेश कर रही हैं, और मुख्य रूप से large language model (LLM) को train और run करने के लिए data center बनाने पर ध्यान दे रही हैं
- LLM text, audio, और visual content जैसे multimodal input को process करते हैं, और sequence में अगले token की prediction तकनीक पर निर्भर करते हैं
- Personal chatbot तेज़ी से बढ़ रहे हैं, कुछ AI startup revenue कमाने लगे हैं, और कंपनियां generative AI से शुरुआती productivity gains भी देख रही हैं
- LLM mainstream adoption हासिल करने वाली पहली AI तकनीक बन गए हैं, और ChatGPT के हर हफ्ते 70 करोड़ से अधिक users हैं
- कुछ startup break-even तक पहुंच गए हैं, लेकिन healthcare और legal जैसे संवेदनशील क्षेत्रों में hallucination की समस्या के कारण भरोसा बनाने की सीमाएं मौजूद हैं
एकल तकनीक के प्रति जुनून का खतरा
- लेकिन एक ही तकनीक पर ध्यान केंद्रित करना जोखिम भरा है; अतीत में BlackBerry physical keyboard पर अड़ा रहा और Apple के touchscreen से पीछे रह गया, और Yahoo का portal दांव Google की search dominance के आगे हार गया
- LLM के साथ भी वही रास्ता दोहराया जा सकता है, और यदि नया AI approach उभरता है तो बड़े पैमाने का निवेश फंसने के जोखिम में पड़ सकता है
- चीन की DeepSeek ने जनवरी में छोटा और अधिक efficient LLM जारी किया, architecture को open किया, और बाज़ार को चौंकाते हुए non-traditional approach की संभावना साबित की
वैकल्पिक approaches की खोज
- AI का विकास अतीत की अंतर्दृष्टि और नए विचारों के मेल से होता है, और superintelligent machine की खोज में भी बहुआयामी approach की जरूरत है
- Covariant जैसे startup data pattern analysis के बजाय spatial reasoning software विकसित कर रहे हैं, और LLM-केंद्रित धारा से बाहर जा रहे हैं
- Robotics, drone, drug discovery, और climate modeling कंपनियों को real-time physical response की जरूरत होती है, इसलिए वे LLM-केंद्रित सोच से दूर हैं
- ब्रिटेन की Atman Labs deep learning से पहले के भुला दिए गए विचारों को फिर से खोज रही है, जो Google DeepMind के शुरुआती multi-track approach (जैसे AlphaGo, reinforcement learning) को दर्शाता है
LLM की सीमाएं और reliability की समस्या
- अब large language model logic में दरारें दिखने लगी हैं: बेहद ऊंची लागत से लेकर घटते returns की आशंका तक
- OpenAI और Google के नवीनतम model अपने पिछले versions से बस थोड़ा बेहतर हैं, चाहे उन पर और ज्यादा पैसा ही क्यों न लगाया जाए
- इसके बावजूद hallucination खत्म नहीं हो रही, जिससे medical या legal analysis जैसे enterprise adoption में बाधा आ रही है
- हालिया Nature study में पाया गया कि language model की social reasoning ability बहुत कम विशेषताओं पर निर्भर करती है और छोटे बदलाव से भी ढह सकती है, जो reliability पर बुनियादी सवाल उठाती है
- OpenAI ने स्वीकार किया कि लंबी बातचीत के दौरान vulnerable groups के लिए safety guardrails टूट सकते हैं, और वास्तव में एक घटना में एक teenager को self-harm instructions दिए गए
उद्योग की आलोचना और आगे का रास्ता
- Fei-Fei Li: “प्रकृति में भाषा नहीं होती, दुनिया physical laws का पालन करती है,” कहते हुए language-centered limits की ओर इशारा
- Alex Karp (Palantir CEO): “Silicon Valley ने LLM का जरूरत से ज्यादा प्रचार किया,” ऐसी आलोचना
- Yann LeCun: LLM अधिक बुद्धिमान मशीनों की ओर जाने वाला ‘dead end’ हैं, वे सिर्फ “token generator” हैं और अपने physical surroundings को समझ नहीं सकते या पहले से planning नहीं कर सकते
- निष्कर्षतः LLM बने रहेंगे, लेकिन एक ही समाधान से चिपके रहना जोखिम भरा है, और investors व companies को नई technological paradigm shift की संभावना के लिए तैयार रहना चाहिए
अभी कोई टिप्पणी नहीं है.