दिलचस्प है कि context size मॉडल के उपयोग को कितनी प्रभावित करती है, लेकिन अब भी benchmark और ऊपर-ऊपर के अंदाज़ में यह कहना कि कौन नंबर 1 है, यह उन लोगों के लिए viral marketing करने से आखिर कितना अलग है जो यह बात नहीं जानते?
अलग-अलग राय हो सकती हैं, लेकिन मेरा मूल रूप से मानना है कि देश के भीतर किए जाने वाले सभी AI-संबंधित प्रोजेक्ट अपने आप में मायने रखते हैं। दूसरों से तुलना करके स्तर का मूल्यांकन करने से ज़्यादा, मुझे लगता है कि अभी स्थिति ऐसी है जहाँ कोशिश की खुद सराहना की जानी चाहिए.
यह सच है कि हमारी प्रतिक्रिया देर से आई है, और पैसे व GPU दोनों ही मामलों में हम अमेरिका/चीन की तुलना में कमजोर हैं, लेकिन अगर हम इसकी सराहना करें और मिलकर इस्तेमाल करते हुए इसे बेहतर बनाते जाएँ, तो क्या यह और अच्छा नहीं हो जाएगा?
अगर आप हालात को दोष देते हुए 'वैसे भी यह नहीं हो सकता' जैसी हार मान लेने वाली सोच में फँसे रहेंगे, तो कुछ भी नहीं बदलेगा। इस लेख से एक भी काम की बात लेकर उसे आज़माना ही अपनी कीमत बढ़ाने का रास्ता है।
यह सच है कि जिन भाषाओं का उपयोगकर्ता आधार कम है, उनमें गुणवत्ता कम होती है। लेकिन इसका यह मतलब नहीं है कि वे सिर्फ़ Korean में ही अच्छा बनाने की कोशिश करेंगे। इसकी कोई खास वजह भी नहीं है। और समस्या यह है कि हम खुद उन्हीं कम-उपयोगकर्ता-आधार वाली भाषाओं के उपयोगकर्ता हैं....
ठंडे दिमाग से कहें तो इसकी प्रतिस्पर्धात्मक क्षमता नहीं है।
फ्रंटियर open source मॉडल डेवलपमेंट आमतौर पर ऐसे Research Engineer की टीमों द्वारा किया जाता है जिन्हें big tech में सालाना कई अरब वॉन के बराबर वेतन मिलता है, और उन्हें जबरदस्त GPU resources का समर्थन प्राप्त होता है। (पहले Meta में एक प्रोजेक्ट में 10,000 A100 GPU लगाए गए थे, और मुझे याद है कि उस समय यह संख्या कोरिया में मौजूद कुल A100 सप्लाई से भी अधिक थी।)
कोरिया में LLM डेवलपमेंट में लगाए जाने वाले मानव संसाधन और GPU resources वास्तविक रूप से वैश्विक स्तर पर प्रतिस्पर्धा करने के लिए पर्याप्त नहीं हैं।
यह कहना शायद ज्यादा सही होगा कि हम अकेले खास तौर पर खराब नहीं कर रहे, बल्कि अमेरिका और चीन इतने अधिक दबदबे वाले हैं कि उनकी बराबरी करना मुश्किल है।
यह समझ में आता है कि Grok 4 काफ़ी प्रभावशाली है, लेकिन 'जल्द ही नई तकनीक/नई physics की खोज तक की उम्मीद है' जैसी अंग्रेज़ीभाषी दुनिया की विशिष्ट अभिव्यक्तियाँ मज़ेदार लगती हैं। अगर यह जल्द ही Riemann hypothesis को सिद्ध/खंडित कर दे, तो फिर किसी benchmark वगैरह की ज़रूरत ही नहीं रहेगी, है न?
मुझे भी ठीक से नहीं पता, लेकिन thinking की प्रक्रियाओं को देखें तो लगता है कि Korean में पूछने पर भी कभी-कभी वह English में करता है। अगर ऐसी प्रक्रिया Korean में हो सके, तो क्या वह कुछ ज़्यादा घरेलू भावनात्मक संदर्भों के मुताबिक जवाब नहीं दे पाएगा?
क्या यह आगे विकसित होने वाले नए AI या मौजूदा AI के समग्र स्तर को ऊपर ले जाने की संभावना को ध्यान में रखकर किया गया निवेश नहीं है? DeepSeek की तरह। अगर ऐसे AI में कोरियाई संवेदनशीलता को शामिल किया जाए, तो यह प्रतिस्पर्धी लग सकता है। हालांकि यह भविष्य की बात है।
क्या यह इसलिए नहीं हो सकता कि Korean टेक्स्ट टूट रहा हो? Gemini में भी ऐसा होता है, और इस्तेमाल करते-करते किसी बिंदु पर दूसरी भाषा में उछल जाने के मामले बहुत ज़्यादा हैं..
व्यक्तिगत तौर पर, मैं चाहूँगा कि vibe coding जैसे लेख अब यहाँ न दिखें। सच कहूँ तो, एक भी लेख ऐसा नहीं दिखा जो अपवाद हो — हर बार बस यही बेबुनियाद और खोखली बातें होती हैं कि "मैंने coding की पढ़ाई नहीं की, लेकिन vibe coding इस्तेमाल करके कुछ ही हफ्तों में अरबों की revenue बना ली, VC का acquisition ऑफर भी ठुकरा दिया, वगैरह-वगैरह।" क्या हमें ऐसे बेमतलब के लेख लगातार देखते रहना चाहिए?
दिलचस्प है कि context size मॉडल के उपयोग को कितनी प्रभावित करती है, लेकिन अब भी benchmark और ऊपर-ऊपर के अंदाज़ में यह कहना कि कौन नंबर 1 है, यह उन लोगों के लिए viral marketing करने से आखिर कितना अलग है जो यह बात नहीं जानते?
अलग-अलग राय हो सकती हैं, लेकिन मेरा मूल रूप से मानना है कि देश के भीतर किए जाने वाले सभी AI-संबंधित प्रोजेक्ट अपने आप में मायने रखते हैं। दूसरों से तुलना करके स्तर का मूल्यांकन करने से ज़्यादा, मुझे लगता है कि अभी स्थिति ऐसी है जहाँ कोशिश की खुद सराहना की जानी चाहिए.
यह सच है कि हमारी प्रतिक्रिया देर से आई है, और पैसे व GPU दोनों ही मामलों में हम अमेरिका/चीन की तुलना में कमजोर हैं, लेकिन अगर हम इसकी सराहना करें और मिलकर इस्तेमाल करते हुए इसे बेहतर बनाते जाएँ, तो क्या यह और अच्छा नहीं हो जाएगा?
अगर आप हालात को दोष देते हुए 'वैसे भी यह नहीं हो सकता' जैसी हार मान लेने वाली सोच में फँसे रहेंगे, तो कुछ भी नहीं बदलेगा। इस लेख से एक भी काम की बात लेकर उसे आज़माना ही अपनी कीमत बढ़ाने का रास्ता है।
ओह, इसे प्रकार के हिसाब से बाँट दिया गया है, इसलिए देखना आसान है और अच्छा लग रहा है।
हंगुल अनुवादित संस्करण नीचे है.
https://junghan92.medium.com/%EB%B2%88%EC%97%AD-%EC%9E%90%EB%B0%94%EC%…
नीचे पोस्ट पर आई टिप्पणियों की प्रतिक्रियाओं को 5 प्रकारों में वर्गीकृत किया गया सारांश है:
1. पूर्ण सहमति और समर्थन
मुख्य विशेषताएँ: लेख के दावों से पूरी तरह सहमत हैं और जटिल JS stack की समस्याओं को स्वीकार करते हैं।
राय के उदाहरण:
2. framework के अति-उपयोग पर चिंता
मुख्य विशेषताएँ: React, Angular जैसे framework के अत्यधिक उपयोग की आलोचना, और यह राय कि सरल तकनीकें ही काफ़ी हैं।
राय के उदाहरण:
3. आंशिक सहमति + व्यावहारिक दृष्टिकोण
मुख्य विशेषताएँ: दावे से सहमति है, लेकिन यह व्यावहारिक दृष्टिकोण भी मौजूद है कि कुछ स्थितियों में जटिलता अपरिहार्य या आवश्यक होती है।
राय के उदाहरण:
4. development culture और industry structure की आलोचना
मुख्य विशेषताएँ: यह संकेत कि framework की अधिकता केवल तकनीकी समस्या नहीं, बल्कि hiring, culture और marketing structure का परिणाम है।
राय के उदाहरण:
5. आलोचना या विरोध
मुख्य विशेषताएँ: लेख की मूल धारणा से असहमति, या इसे एकतरफ़ा तर्क कहकर आलोचना।
राय के उदाहरण:
अचानक ग्रैजुएट स्टूडेंट्स को घसीटकर लाकर क्यों पीट रहे हैं lol
अगर आप सच में मानते हैं कि AI अगली पीढ़ी की बुनियाद है, तो यह वांछनीय नहीं है कि किसी देश की मुख्य आधारभूत तकनीक दूसरे देशों की तकनीक पर निर्भर हो...?
यह सच है कि जिन भाषाओं का उपयोगकर्ता आधार कम है, उनमें गुणवत्ता कम होती है। लेकिन इसका यह मतलब नहीं है कि वे सिर्फ़ Korean में ही अच्छा बनाने की कोशिश करेंगे। इसकी कोई खास वजह भी नहीं है। और समस्या यह है कि हम खुद उन्हीं कम-उपयोगकर्ता-आधार वाली भाषाओं के उपयोगकर्ता हैं....
क्योंकि बेस परफॉर्मेंस बढ़ाने के काम के दम पर प्रतिस्पर्धी तरीके से सामने नहीं आया जा सकता।
ठंडे दिमाग से कहें तो इसकी प्रतिस्पर्धात्मक क्षमता नहीं है।
फ्रंटियर open source मॉडल डेवलपमेंट आमतौर पर ऐसे Research Engineer की टीमों द्वारा किया जाता है जिन्हें big tech में सालाना कई अरब वॉन के बराबर वेतन मिलता है, और उन्हें जबरदस्त GPU resources का समर्थन प्राप्त होता है। (पहले Meta में एक प्रोजेक्ट में 10,000 A100 GPU लगाए गए थे, और मुझे याद है कि उस समय यह संख्या कोरिया में मौजूद कुल A100 सप्लाई से भी अधिक थी।)
कोरिया में LLM डेवलपमेंट में लगाए जाने वाले मानव संसाधन और GPU resources वास्तविक रूप से वैश्विक स्तर पर प्रतिस्पर्धा करने के लिए पर्याप्त नहीं हैं।
यह कहना शायद ज्यादा सही होगा कि हम अकेले खास तौर पर खराब नहीं कर रहे, बल्कि अमेरिका और चीन इतने अधिक दबदबे वाले हैं कि उनकी बराबरी करना मुश्किल है।
यह समझ में आता है कि Grok 4 काफ़ी प्रभावशाली है, लेकिन 'जल्द ही नई तकनीक/नई physics की खोज तक की उम्मीद है' जैसी अंग्रेज़ीभाषी दुनिया की विशिष्ट अभिव्यक्तियाँ मज़ेदार लगती हैं। अगर यह जल्द ही Riemann hypothesis को सिद्ध/खंडित कर दे, तो फिर किसी benchmark वगैरह की ज़रूरत ही नहीं रहेगी, है न?
मूल कीमत 2.2 लाख won से भी ज़्यादा लगती है, तो सोच रहा हूँ खरीदार इसे आखिर कहाँ-कहाँ इस्तेमाल करेंगे.....
मुझे भी ठीक से नहीं पता, लेकिन thinking की प्रक्रियाओं को देखें तो लगता है कि Korean में पूछने पर भी कभी-कभी वह English में करता है। अगर ऐसी प्रक्रिया Korean में हो सके, तो क्या वह कुछ ज़्यादा घरेलू भावनात्मक संदर्भों के मुताबिक जवाब नहीं दे पाएगा?
हाँ, शीर्षक देखकर मुझे भी लगा कि यह कोई मज़ाक है।
क्या यह आगे विकसित होने वाले नए AI या मौजूदा AI के समग्र स्तर को ऊपर ले जाने की संभावना को ध्यान में रखकर किया गया निवेश नहीं है? DeepSeek की तरह। अगर ऐसे AI में कोरियाई संवेदनशीलता को शामिल किया जाए, तो यह प्रतिस्पर्धी लग सकता है। हालांकि यह भविष्य की बात है।
लगता है कि वे सरकार के अंधाधुंध फंड को हड़पने की कोशिश कर रहे हैं।
क्या यह इसलिए नहीं हो सकता कि Korean टेक्स्ट टूट रहा हो? Gemini में भी ऐसा होता है, और इस्तेमाल करते-करते किसी बिंदु पर दूसरी भाषा में उछल जाने के मामले बहुत ज़्यादा हैं..
व्यक्तिगत तौर पर, मैं चाहूँगा कि
vibe codingजैसे लेख अब यहाँ न दिखें। सच कहूँ तो, एक भी लेख ऐसा नहीं दिखा जो अपवाद हो — हर बार बस यही बेबुनियाद और खोखली बातें होती हैं कि "मैंने coding की पढ़ाई नहीं की, लेकिनvibe codingइस्तेमाल करके कुछ ही हफ्तों में अरबों की revenue बना ली, VC का acquisition ऑफर भी ठुकरा दिया, वगैरह-वगैरह।" क्या हमें ऐसे बेमतलब के लेख लगातार देखते रहना चाहिए?मैंने
https://github.com/gracefullight/py-starterइस्तेमाल करने के लिए एक टेम्पलेट बना रखा है.