अगर यह सिर्फ़ simple inference के लिए इस्तेमाल होने वाला CPU runtime हो तो हालात थोड़े बेहतर हैं, लेकिन आजकल जिन LLM services की ज़रूरत पड़ती है, उनमें traffic भी अपने हिसाब से बढ़ता है और capacity भी उसी तरह बढ़ती है, इसलिए cost calculate करते समय मुँह से गाली निकल जाती है lol
काफ़ी सारी बातें ऐसी हैं जिनसे सहमति महसूस होती है.
टिप्पणियाँ भी अच्छी हैं, लेकिन जब कोई इस तरह उन्हें व्यवस्थित करके कहता है, यानी उनके लिए एक मंच तैयार करता है, तो उस पर आपत्ति, समर्थन और पूरक बातें जुड़ते हुए वह और अधिक पूर्ण बनती हुई लगती है.
पुनश्च: हाल में "उबाऊ तकनीक" जैसा अभिव्यक्ति अक्सर दिख रही है, अंग्रेज़ी में यह boring technology है.
> इसके उलट, अगर काम बस ‘किसी तरह चलने लायक बना देने’ वाला हो, तो AI का इस्तेमाल प्रभावी हो सकता है।
यह सिर्फ डेवलपर्स तक सीमित नहीं है, लेकिन लोगों की प्रवृत्तियां अलग-अलग होती हैं, इसलिए मुझे लगता है कि जो लोग संयोग से डेवलपर बन गए हैं और कोड लिखना या देखना पसंद नहीं करते या उससे डरते हैं, और जो व्यवस्थित संरचना या मेंटेनेंस के नजरिए से समझने के बजाय बस चीजें चलती रहें यही मानसिकता रखते हैं, उनमें AI पर निर्भरता या अंधविश्वास ज्यादा मजबूत दिखता है। नहीं भी हो सकता है।
ऐसे packages हैं जिनकी dependency सिर्फ pytorch+cuda version अलग होने की वजह से अलग-अलग बंधी हुई है... सच में हाल बेहाल है।
कोई खास feature भी नहीं है, फिर भी हर छोटे daemon के लिए लगभग 2GB dependencies install करनी पड़ती हैं..
ज़रूरत के चलते मैं भी उन दुर्लभ H100 GPU की 4 कार्ड लगाकर एक RAG solution बना रहा हूँ, लेकिन सिर्फ hardware में direct investment ही नहीं, बल्कि बिजली बिल और अलग-अलग cooling solution की लागत वगैरह को भी देखें तो बार-बार यही लगता है कि बस API call करना कहीं ज़्यादा बेहतर होता।
मैंने भी शुरुआत में Ollama से testing शुरू की थी, और यह देखने के बाद कि वह 3 concurrent users को भी ठीक से cover नहीं कर पा रहा था, मैं तुरंत vLLM पर चला गया और जैसे-तैसे RAG solution का setup किया, लेकिन (10 concurrent users मानें) सिर्फ इसी के लिए ही H100 GPU की 2 कार्ड लगभग पूरी तरह इस्तेमाल करनी पड़ रही हैं। Embedding और search जैसे काम भी vLLM पर खोलकर चला रहा हूँ, तो H100 की 4 कार्ड भी सच में बहुत तंग पड़ रही हैं। जबकि एक कार्ड में लगभग 90GB VRAM है, फिर भी हालत ऐसी है।
बेशक, मुझे AI की बहुत गहरी समझ नहीं है, बस विभाग की ज़रूरतें और कंपनी के अंदर के security नियमों को किसी तरह मिलाते-बिठाते हुए मैं ज़बरदस्ती करके यह सब आज़मा रहा हूँ... पर समझ नहीं आता कि क्या यह सही रास्ता है। ChatGPT Enterprise था शायद? मुझे तो वह सच में बहुत किफायती कीमत लगती है।
मेरे मन में भी कुछ ऐसा ही विचार था, लेकिन उसे शब्दों में व्यक्त करना थोड़ा मुश्किल था. मेंटल मॉडल इसके लिए काफ़ी उपयुक्त नाम है. लगता है, इसे अक्सर इस्तेमाल करना पड़ेगा.
मुझे Django सच में बहुत पसंद है! मैंने भी कई तरह से इससे बहुत लाभ पाया है और दिल से आभारी हूँ। Django पहले की तुलना में शायद थोड़ा कम लोकप्रिय हो गया हो। लेकिन सच कहूँ तो, क्या Django कभी खास तौर पर "हॉट" रहा भी था? मुझे लगता है कि यह आगे भी लंबे समय तक लगातार, स्थिर रूप से पसंद किया जाने वाला framework बना रहेगा!
यह बिल्कुल वही चीज़ थी जिसकी मुझे ज़रूरत थी, इसलिए मैं इसे खुद बना रहा था... लेकिन यह उन्होंने बना दिया। मैं Claude Code Max इस्तेमाल करता हूँ, और एक साथ कई प्रोजेक्ट्स डेवलप करते समय यह सच में बहुत ज़रूरी सॉफ़्टवेयर था।
यह तो अपरिहार्य जटिलता है। यह पहले की तरह साधारण template html नहीं है।
अगर यह सिर्फ़ simple inference के लिए इस्तेमाल होने वाला CPU runtime हो तो हालात थोड़े बेहतर हैं, लेकिन आजकल जिन LLM services की ज़रूरत पड़ती है, उनमें traffic भी अपने हिसाब से बढ़ता है और capacity भी उसी तरह बढ़ती है, इसलिए cost calculate करते समय मुँह से गाली निकल जाती है lol
काफ़ी सारी बातें ऐसी हैं जिनसे सहमति महसूस होती है.
टिप्पणियाँ भी अच्छी हैं, लेकिन जब कोई इस तरह उन्हें व्यवस्थित करके कहता है, यानी उनके लिए एक मंच तैयार करता है, तो उस पर आपत्ति, समर्थन और पूरक बातें जुड़ते हुए वह और अधिक पूर्ण बनती हुई लगती है.
पुनश्च: हाल में "उबाऊ तकनीक" जैसा अभिव्यक्ति अक्सर दिख रही है, अंग्रेज़ी में यह boring technology है.
> इसके उलट, अगर काम बस ‘किसी तरह चलने लायक बना देने’ वाला हो, तो AI का इस्तेमाल प्रभावी हो सकता है।
यह सिर्फ डेवलपर्स तक सीमित नहीं है, लेकिन लोगों की प्रवृत्तियां अलग-अलग होती हैं, इसलिए मुझे लगता है कि जो लोग संयोग से डेवलपर बन गए हैं और कोड लिखना या देखना पसंद नहीं करते या उससे डरते हैं, और जो व्यवस्थित संरचना या मेंटेनेंस के नजरिए से समझने के बजाय बस चीजें चलती रहें यही मानसिकता रखते हैं, उनमें AI पर निर्भरता या अंधविश्वास ज्यादा मजबूत दिखता है। नहीं भी हो सकता है।
ऐसे packages हैं जिनकी dependency सिर्फ
pytorch+cudaversion अलग होने की वजह से अलग-अलग बंधी हुई है... सच में हाल बेहाल है।कोई खास feature भी नहीं है, फिर भी हर छोटे daemon के लिए लगभग 2GB dependencies install करनी पड़ती हैं..
ज़रूरत के चलते मैं भी उन दुर्लभ H100 GPU की 4 कार्ड लगाकर एक RAG solution बना रहा हूँ, लेकिन सिर्फ hardware में direct investment ही नहीं, बल्कि बिजली बिल और अलग-अलग cooling solution की लागत वगैरह को भी देखें तो बार-बार यही लगता है कि बस API call करना कहीं ज़्यादा बेहतर होता।
मैंने भी शुरुआत में Ollama से testing शुरू की थी, और यह देखने के बाद कि वह 3 concurrent users को भी ठीक से cover नहीं कर पा रहा था, मैं तुरंत vLLM पर चला गया और जैसे-तैसे RAG solution का setup किया, लेकिन (10 concurrent users मानें) सिर्फ इसी के लिए ही H100 GPU की 2 कार्ड लगभग पूरी तरह इस्तेमाल करनी पड़ रही हैं। Embedding और search जैसे काम भी vLLM पर खोलकर चला रहा हूँ, तो H100 की 4 कार्ड भी सच में बहुत तंग पड़ रही हैं। जबकि एक कार्ड में लगभग 90GB VRAM है, फिर भी हालत ऐसी है।
बेशक, मुझे AI की बहुत गहरी समझ नहीं है, बस विभाग की ज़रूरतें और कंपनी के अंदर के security नियमों को किसी तरह मिलाते-बिठाते हुए मैं ज़बरदस्ती करके यह सब आज़मा रहा हूँ... पर समझ नहीं आता कि क्या यह सही रास्ता है। ChatGPT Enterprise था शायद? मुझे तो वह सच में बहुत किफायती कीमत लगती है।
मेरे मन में भी कुछ ऐसा ही विचार था, लेकिन उसे शब्दों में व्यक्त करना थोड़ा मुश्किल था.
मेंटल मॉडलइसके लिए काफ़ी उपयुक्त नाम है. लगता है, इसे अक्सर इस्तेमाल करना पड़ेगा.$150 प्रति घंटा? वहीं से variables control ही गड़बड़ है lol
मुझे Django सच में बहुत पसंद है! मैंने भी कई तरह से इससे बहुत लाभ पाया है और दिल से आभारी हूँ। Django पहले की तुलना में शायद थोड़ा कम लोकप्रिय हो गया हो। लेकिन सच कहूँ तो, क्या Django कभी खास तौर पर "हॉट" रहा भी था? मुझे लगता है कि यह आगे भी लंबे समय तक लगातार, स्थिर रूप से पसंद किया जाने वाला framework बना रहेगा!
शुरुआत से ही उपकरण बनाने वाले component manufacturers, चाहे Lua हो या Python, इनके लिए अच्छा support नहीं देते। ज़्यादा से ज़्यादा C?
जिसने ये लेख लिखा, उसने शायद mass-produced Shorts बस क्लिक-क्लिक करके बनाए थे और फिर बैन हो गया क्या lol
शौकिया वेब डेवलपमेंट के लिए मैं इसे अच्छी तरह इस्तेमाल कर रहा हूँ
const a = (a: () => null): (() => () => null) =>() => a
अनुभवी open source डेवलपर्स की उत्पादकता पर "AI के प्रभाव" को मापना
() => ❤️
यह बिल्कुल वही चीज़ थी जिसकी मुझे ज़रूरत थी, इसलिए मैं इसे खुद बना रहा था... लेकिन यह उन्होंने बना दिया। मैं Claude Code Max इस्तेमाल करता हूँ, और एक साथ कई प्रोजेक्ट्स डेवलप करते समय यह सच में बहुत ज़रूरी सॉफ़्टवेयर था।
Django को जन्मदिन की शुभकामनाएँ!
हिंदी अनुवाद नीचे दिया गया है.
https://roy-jung.github.io/250701-history-of-js/
काफी सुधार, बेहतरीन प्रदर्शन और सटीकता को अगर आँकड़ों के साथ दिखाया जाता तो अच्छा होता।
कोरिया में यह कैसे अलग होगा?