कोरिया में तो हर चीज़ का नतीजा आखिर Java ही होता है, इसलिए यह थोड़ा अजीब लग रहा है lol

 

मेरा मानना है कि दूसरे देश की तकनीक != दूसरे देश का डेटा

 

फिलहाल जब तक यह फ्री में उपलब्ध नहीं होता, तब तक यक़ीन नहीं होगा। Grok तो 30 डॉलर का भी है, इसलिए सब्सक्राइब करने में भी डर लगता है...

 

हाहाहाहा अचानक पिट गए graduate student पूरी तरह हैरान ..

 

कोशिश की सराहना करता हूँ, लेकिन...
उम्मीद है कि वे नया organization बनाकर 1.0 को उड़ाने जैसा काम नहीं करेंगे।

 

(कोरिया) क्या यही कंपनी की नौकरी वाली ज़िंदगी है? lol

 

काश यह YCD में भी आए~

 

मैं इस लेख के सार से सहमत हूँ। आजकल JS का इतना ज़्यादा इस्तेमाल हो रहा है कि i9-9900k इस्तेमाल करने पर भी कई बार साइट अटकने लगती है। गेमिंग या काम के लिए यह थोड़ा बीच का स्पेक हो सकता है, लेकिन हक़ीक़त यह है कि इससे भी कम स्पेक वाले दफ़्तरों के कंप्यूटर बहुतायत में मौजूद हैं.

इसीलिए मुझे Astro और hotwired पसंद हैं, क्योंकि ये उस सोच वाले framework हैं कि JS का इस्तेमाल केवल वहीं किया जाए जहाँ वह सच में ज़रूरी हो, जैसे interactive हिस्सों में या interactive page navigation में। मुझे server-side rendering भी पसंद है, यानी server side पर render करना। दूसरी ओर, CSR (जिसमें केवल meta tag server side पर render किए जाते हैं और बाकी हिस्सा CSR से संभाला जाता है, वह भी शामिल है) मुझे बिल्कुल पसंद नहीं है। क्योंकि मैं इसे server का काम client पर थोपने जैसा मानता हूँ। व्यक्तिगत रूप से मेरा मानना है कि CSR का इस्तेमाल करने वाला पारंपरिक SPA तरीका Electron जैसे apps में, जहाँ frontend को local पर चलाया जाता है, वहीं इस्तेमाल होना चाहिए। बेशक, जब frontend को server से load किया जाए, तब SSR का इस्तेमाल करना चाहिए।

 

मुझे लगता है कि LLM की संरचना के कारण उसकी सुरक्षा की पूरी तरह गारंटी देना शायद असंभव होगा। मेरी राय में LLM का अस्थिर होना कुछ हद तक अपरिहार्य है, और agent या autonomous driving की तरह उसे भौतिक कार्रवाई की अनुमति कैसे दी जाए, यही ज़्यादा महत्वपूर्ण लगता है।

 

सिर्फ नाम देखकर ही यह कम भरोसेमंद लगता है।
नाम के बीच में colon क्यों डाला गया है? क्या इसके पीछे कोई अर्थगत वजह है? या फिर क्या सच में उन्हें लगा कि यह स्टाइलिश दिखता है?
और अगर यह mit:eum है, तो क्या इसे alphabet में mid:m नहीं लिखा जाना चाहिए?

 

इन दिनों SETI बोर्डगेम की वजह से SETI से जुड़ी चीज़ें ढूंढ रहा था, तो इसे इस तरह खबर में देखकर फिर से अच्छा लगा

SETI बोर्डगेम वाकई बहुत मज़ेदार है। मैं इसे उन लोगों को भी सुझाना चाहूँगा जो बोर्डगेम्स के बारे में ज़्यादा नहीं जानते।
जो युवा दोस्त SETI के बारे में ही नहीं जानते, उन्हें पहले प्रोजेक्ट का परिचय देना पड़ता है, इसलिए उसकी पृष्ठभूमि भी दिलचस्प लगती है, और गेम की थीम भी एकदम फिट बैठती है.
2025 का यह बोर्डगेम अभी कुल बोर्डगेम रैंकिंग में 43वें स्थान तक पहुँच चुका है, इसलिए लगता है कि जल्द ही यह टॉप 10 के अंदर आ जाएगा।

 

शायद इसे कम alignment वाले मॉडल की परफॉर्मेंस समझा जा सकता है, लेकिन मेरा मानना है कि शायद बाद में इस पर लगाम लगेगी और इसकी परफॉर्मेंस गिर जाएगी

 

खैर, असल में इस्तेमाल करके ही पता चलेगा, लेकिन 2 लाख GPU और इतना बड़ा talent pool हो तो इस तरह आक्रामक growth भी संभव है।
जब Colossus 10 लाख GPU तक पहुंच जाएगा, तब यह और कितना बेहतर होगा, सोचने वाली बात है।

अगर H100 की कीमत 5 करोड़ वॉन मानें, तो सिर्फ GPU की कीमत ही 50 ट्रिलियन वॉन होती है। डेटा सेंटर बनाने हैं, और आसपास बिजली की भी ज़रूरत होगी, तो कहा जा रहा है कि इसमें लगभग 20 ट्रिलियन वॉन और लगेंगे, यानी कुल 70 ट्रिलियन वॉन। लगता है AI धीरे-धीरे पैसों की लड़ाई बनता जा रहा है।

 

> मेरी राय में AI सेवा के नाम पर बाहरी API इस्तेमाल करने वाला wrapper बनाना कोई उत्पादक काम नहीं है, बल्कि सिर्फ़ commission का धंधा है.

इस बात में जोड़ते हुए, API का इस्तेमाल किया जाए तब भी अगर उसे Manus के स्तर पर अच्छी तरह उपयोग किया जाए तो उसे उपलब्धि माना जा सकता है, लेकिन अभी कोरिया में उस स्तर का wrapper शायद नहीं है।

 

मैं आंशिक रूप से सहमत हूँ.
मेरे हिसाब से AI service के नाम पर external API इस्तेमाल करने वाला wrapper बनाना बिल्कुल भी productive काम नहीं है, और यह सिर्फ़ commission का धंधा है,
लेकिन अगर कंपनियाँ model fine-tuning करके उसे जारी करती हैं, तो आखिरकार वे अपने resources लगाकर उसे public कर रही हैं, इसलिए उसे नकारात्मक नज़र से देखने की कोई वजह नहीं लगती.

हाँ, लेकिन अगर वे बाहर से, मसलन सरकार से, पैसा लेना शुरू करें, तो उसे सिर्फ़ अच्छे नज़रिए से देखना मुश्किल होगा...

 

जब gemini cli इस्तेमाल करते हैं, तो 1M context की वजह से user experience बिल्कुल अलग स्तर का लगता है.
पूरे codebase को context में डाल पाना सच में game changer है

 

दिलचस्प है कि context size मॉडल के उपयोग को कितनी प्रभावित करती है, लेकिन अब भी benchmark और ऊपर-ऊपर के अंदाज़ में यह कहना कि कौन नंबर 1 है, यह उन लोगों के लिए viral marketing करने से आखिर कितना अलग है जो यह बात नहीं जानते?

 

अलग-अलग राय हो सकती हैं, लेकिन मेरा मूल रूप से मानना है कि देश के भीतर किए जाने वाले सभी AI-संबंधित प्रोजेक्ट अपने आप में मायने रखते हैं। दूसरों से तुलना करके स्तर का मूल्यांकन करने से ज़्यादा, मुझे लगता है कि अभी स्थिति ऐसी है जहाँ कोशिश की खुद सराहना की जानी चाहिए.

यह सच है कि हमारी प्रतिक्रिया देर से आई है, और पैसे व GPU दोनों ही मामलों में हम अमेरिका/चीन की तुलना में कमजोर हैं, लेकिन अगर हम इसकी सराहना करें और मिलकर इस्तेमाल करते हुए इसे बेहतर बनाते जाएँ, तो क्या यह और अच्छा नहीं हो जाएगा?