आखिरकार, यह इस बात पर निर्भर करेगा कि उसे इस्तेमाल करने वाला व्यक्ति कैसे सोचता है और उसका उपयोग कैसे करता है।
बिना सोचे-समझे बस उसी पर काम छोड़ देने वाला माहौल बन जाने से अनजाने में उसके पीछे-पीछे चल पड़ने का खतरा भी बढ़ा है, लेकिन अगर इसे सही तरह से इस्तेमाल किया जाए तो पहले की तुलना में कहीं अधिक तेज़ और सटीक learning और development संभव है।
हालांकि, जो लोग शुरुआत में सीख रहे हैं उन्हें मार्गदर्शन देने के लिए, मौजूदा learning और experience के तरीकों से अलग किसी नए आदर्श learning framework और method को जल्दी व्यवस्थित किया जाए तो अच्छा होगा।
> Codex में /fast मोड सक्रिय करने पर अधिकतम 1.5 गुना तेज़ token speed, वही model और वही intelligence level बना रहता है. API में Priority Processing.
> Priority Processing की कीमत standard की 2 गुना है
> standard 272K context window से अधिक requests पर 2 गुना शुल्क लगेगा
qmd आज़माने का सोचकर AI से रिसर्च करवाया, तो embedding वाली तरफ़ तो ठीक लगी, लेकिन BM25 और query expansion की तरफ़ Korean support अच्छा नहीं है, इसलिए इसे recommend नहीं किया गया...
पिछली बार जब मैंने agent के ज़रिए fine-tuning चलाकर देखा था, तो डेटा के हिसाब से overfitting की समस्या काफ़ी बार होती दिखी थी। इस बार इस notebook में LoRA/QLoRA के combination के साथ यह संभव होगा या नहीं, यह जानने की उत्सुकता है।
मैं तो यह उम्मीद भी नहीं करता कि सादगी को अच्छी चीज़ मानकर सराहा जाएगा। हक़ीक़त यह है कि लोग चीज़ों को बेवजह जटिल बनाकर गड़बड़ कर देते हैं, और फिर उसी गड़बड़ी को संभाल लेने के आधार पर प्रमोशन भी पा लेते हैं।
अगर ऐसे लोगों का आकलन करने लायक लोग ऊपर बैठे हों तो सब ठीक है, लेकिन शुरुआत से ही वह संभव नहीं होता, इसलिए ऐसी चीज़ों का निष्पक्ष मूल्यांकन नहीं हो पाता, और इसलिए ऐसे लोग ऊपर नहीं जा पाते...
यही दुष्चक्र है...
कंपनी के नज़रिए से देखें तो, लगता है कि balanced engineer के रूप में सफल होकर ऊपर जाना चाहिए, तभी अच्छे engineer/engineering principles को भी बनाए रखा जा सकता है.
कंपनी ऐसी है तो क्या इसे खुद का dogfooding कहना चाहिए हाहा
मैं भी ऐसा कुछ बना रहा था, लेकिन लगता है सबकी सोच सच में काफ़ी मिलती-जुलती है.. haha
WDD (Wife Driven Development) के ज़रिए विकसित और तराशी गई माहौल..
आखिरकार, यह इस बात पर निर्भर करेगा कि उसे इस्तेमाल करने वाला व्यक्ति कैसे सोचता है और उसका उपयोग कैसे करता है।
बिना सोचे-समझे बस उसी पर काम छोड़ देने वाला माहौल बन जाने से अनजाने में उसके पीछे-पीछे चल पड़ने का खतरा भी बढ़ा है, लेकिन अगर इसे सही तरह से इस्तेमाल किया जाए तो पहले की तुलना में कहीं अधिक तेज़ और सटीक learning और development संभव है।
हालांकि, जो लोग शुरुआत में सीख रहे हैं उन्हें मार्गदर्शन देने के लिए, मौजूदा learning और experience के तरीकों से अलग किसी नए आदर्श learning framework और method को जल्दी व्यवस्थित किया जाए तो अच्छा होगा।
मैंने यह अपनी पत्नी को बहुत मज़े से पढ़कर सुनाया...
यह राय भी सामने आई कि शायद उनकी पत्नी ने ही उन्हें उस स्तर तक पहुँचाया हो सकता है.
नंबर 2. यह सोचने पर मजबूर करता है कि शायद मुझे खुद भी अपने "reasonable defaults" पर आत्मचिंतन करना चाहिए.
मुख्य लेख भी और टिप्पणियां भी हैरान कर देने वाली हद तक नकारात्मक हैं। लगता है जैसे किसी ने भी Claude Code चलाकर देखा ही नहीं है..
डेवलपर्स रिलेशनशिप में क्यों नहीं पड़ पाते
ये तो बस rag ही है;
nanoclawखोजने पर अब भीnanoclaw.net, git के नीचे दिख रहा है।लगता है cheating tool बनाने वाला खुद cheating करते पकड़ा गया। हा।
इंस्टॉलेशन पेज पर email address मांगा जा रहा था, इसलिए लगा कि शायद यह Private Repo होगा, लेकिन यह Public Repo है।
नीचे दिए गए लिंक पर जाएँ।
https://github.com/ArtemXTech/personal-os-skills/…
यह बहुत मज़ेदार लग रहा है, मुझे इसे एक बार लागू करके देखना चाहिए
> Codex में /fast मोड सक्रिय करने पर अधिकतम 1.5 गुना तेज़ token speed, वही model और वही intelligence level बना रहता है. API में Priority Processing.
> Priority Processing की कीमत standard की 2 गुना है
> standard 272K context window से अधिक requests पर 2 गुना शुल्क लगेगा
हाहाहाहा
क्या है ये, लगता है मेरी शब्द-संपदा कम पड़ने लगी है।
"उद्भव, slop, source attribution, framing effect, Cambrian explosion" खोजकर बैठा हूँ।
आजकल इतनी सारी चीज़ें क्यों खत्म हो रही हैं?
qmdआज़माने का सोचकर AI से रिसर्च करवाया, तो embedding वाली तरफ़ तो ठीक लगी, लेकिन BM25 और query expansion की तरफ़ Korean support अच्छा नहीं है, इसलिए इसे recommend नहीं किया गया...पिछली बार जब मैंने agent के ज़रिए fine-tuning चलाकर देखा था, तो डेटा के हिसाब से overfitting की समस्या काफ़ी बार होती दिखी थी। इस बार इस notebook में LoRA/QLoRA के combination के साथ यह संभव होगा या नहीं, यह जानने की उत्सुकता है।
मैं तो यह उम्मीद भी नहीं करता कि सादगी को अच्छी चीज़ मानकर सराहा जाएगा। हक़ीक़त यह है कि लोग चीज़ों को बेवजह जटिल बनाकर गड़बड़ कर देते हैं, और फिर उसी गड़बड़ी को संभाल लेने के आधार पर प्रमोशन भी पा लेते हैं।
अगर ऐसे लोगों का आकलन करने लायक लोग ऊपर बैठे हों तो सब ठीक है, लेकिन शुरुआत से ही वह संभव नहीं होता, इसलिए ऐसी चीज़ों का निष्पक्ष मूल्यांकन नहीं हो पाता, और इसलिए ऐसे लोग ऊपर नहीं जा पाते...
यही दुष्चक्र है...
कंपनी के नज़रिए से देखें तो, लगता है कि balanced engineer के रूप में सफल होकर ऊपर जाना चाहिए, तभी अच्छे engineer/engineering principles को भी बनाए रखा जा सकता है.