इसमें co(lab) के पूर्ण rewrite की बात लिखी थी, इसलिए मैंने सोचा था कि यह Google के साथ मिलकर ipynb चलाने के लिए cloud stability बेहतर करने से जुड़ा होगा, लेकिन इसका उससे बिल्कुल संबंध नहीं था और यह Blackboard टीम का डेवलपमेंट प्रोजेक्ट निकला
फिर भी, npx से इंस्टॉल होने वाला OOPIF सुलभ होना एक महत्वपूर्ण अनुभव लगता है
क्या ऐसा इसलिए नहीं होगा क्योंकि यह एक AI native(?) भाषा है?
चूँकि यह इंसानों के सीधे लिखने के लिए बनाई गई भाषा नहीं है, इसलिए असली कोड की लंबाई वगैरह का खास मतलब नहीं है,
शायद सोच यह है कि किसी फीचर को implement करने वाले prompt के लिए compile time मापा जाए... लगता है ऐसा ही है lol
मुझे लगा था कि यह अपने-आप असाइन कर देता होगा, लेकिन यह तो बस सीधे मैन्युअली रजिस्टर करने वाला तरीका है
मैं Caddy इस्तेमाल कर रहा हूँ, तो खास तौर पर इसके लिए इस पर स्विच करने की कोई वजह नहीं दिखती
मैं भी इन दिनों कुछ ऐसा ही सोच रहा था, इसलिए कल cognitive debt से जुड़ी एक blog post लिखी थी। लगता है कि सब लोग लगभग इसी तरह की चिंताओं से जूझ रहे हैं।
संदर्भ: Asahi Linux out-of-tree ANE ड्राइवर
(जिज्ञासा)
अगर यह सच है, तो फिर ऐसा दिखावा करने की क्या ज़रूरत थी?
वाह... वीडियो में हिंदी सबटाइटल भी हैं।
सामग्री भी अच्छी है...
अलग विषय है, लेकिन दुनिया सच में बहुत बेहतर हो गई है। अब ऐसा दौर है कि इंटरनेट पर MIT के लेक्चर भी अपनी भाषा में सुनकर पढ़े जा सकते हैं।
मुझे तो यह बात e2e tests को कभी न छोड़ने की सलाह जैसी लगती है, लेकिन बाकी लोग इसके बारे में क्या सोचते हैं, यह जानने की उत्सुकता है।
कोड को समझना कैसे चाहिए? क्या इसे मापने के लिए internal codebase के आधार पर क्विज़ वगैरह लेनी चाहिए?
"खत्म टाइपिंग हुई है, इंजीनियरिंग नहीं।"
सहमत हूँ। हाहा
इसमें co(lab) के पूर्ण rewrite की बात लिखी थी, इसलिए मैंने सोचा था कि यह Google के साथ मिलकर
ipynbचलाने के लिए cloud stability बेहतर करने से जुड़ा होगा, लेकिन इसका उससे बिल्कुल संबंध नहीं था और यह Blackboard टीम का डेवलपमेंट प्रोजेक्ट निकलाफिर भी,
npxसे इंस्टॉल होने वाला OOPIF सुलभ होना एक महत्वपूर्ण अनुभव लगता हैक्या ऐसा इसलिए नहीं होगा क्योंकि यह एक AI native(?) भाषा है?
चूँकि यह इंसानों के सीधे लिखने के लिए बनाई गई भाषा नहीं है, इसलिए असली कोड की लंबाई वगैरह का खास मतलब नहीं है,
शायद सोच यह है कि किसी फीचर को implement करने वाले prompt के लिए compile time मापा जाए... लगता है ऐसा ही है lol
लगता है कि वे बेजोड़ नंबर 1 के रूप में अपनी स्थिति और मजबूत कर रहे हैं।
कमाल है।
यह उसी प्रोजेक्ट की worktree के साथ अच्छी तरह मेल नहीं खाता, इसलिए मैं इसका इस्तेमाल नहीं कर रहा हूँ।
मुझे लगा था कि यह अपने-आप असाइन कर देता होगा, लेकिन यह तो बस सीधे मैन्युअली रजिस्टर करने वाला तरीका है
मैं Caddy इस्तेमाल कर रहा हूँ, तो खास तौर पर इसके लिए इस पर स्विच करने की कोई वजह नहीं दिखती
मैं यह काम पहले से
docker+traefik+mkcertके साथ कर रहा था, लेकिन लगता है इसे इस्तेमाल करना ज़्यादा सुविधाजनक होगा।यह इतना अच्छा है कि डर लगता है। इस पर और ज़्यादा निर्भर हो जाना शायद अच्छा नहीं होगा.. प्रतियोगी होने चाहिए।
Anthropic की जितनी तारीफ़ करो, उतना ही बेहतर करता जा रहा है।
लगता है यह दूसरी कंपनियों को भी जबरदस्त प्रेरणा दे रहा है।
मैं भी इन दिनों कुछ ऐसा ही सोच रहा था, इसलिए कल cognitive debt से जुड़ी एक blog post लिखी थी। लगता है कि सब लोग लगभग इसी तरह की चिंताओं से जूझ रहे हैं।
दिलचस्प है। क्या भविष्य के लिए आपके पास कोई विकास योजना है?
वाह हाहा
सही है.. vision encoder इस्तेमाल होने पर 1B model भी 9G VRAM खा जाता है।