कंपनी ऐसी है तो क्या इसे खुद का dogfooding कहना चाहिए हाहा

 

मैं भी ऐसा कुछ बना रहा था, लेकिन लगता है सबकी सोच सच में काफ़ी मिलती-जुलती है.. haha

 

WDD (Wife Driven Development) के ज़रिए विकसित और तराशी गई माहौल..

 

आखिरकार, यह इस बात पर निर्भर करेगा कि उसे इस्तेमाल करने वाला व्यक्ति कैसे सोचता है और उसका उपयोग कैसे करता है।

बिना सोचे-समझे बस उसी पर काम छोड़ देने वाला माहौल बन जाने से अनजाने में उसके पीछे-पीछे चल पड़ने का खतरा भी बढ़ा है, लेकिन अगर इसे सही तरह से इस्तेमाल किया जाए तो पहले की तुलना में कहीं अधिक तेज़ और सटीक learning और development संभव है।

हालांकि, जो लोग शुरुआत में सीख रहे हैं उन्हें मार्गदर्शन देने के लिए, मौजूदा learning और experience के तरीकों से अलग किसी नए आदर्श learning framework और method को जल्दी व्यवस्थित किया जाए तो अच्छा होगा।

 

मैंने यह अपनी पत्नी को बहुत मज़े से पढ़कर सुनाया...

यह राय भी सामने आई कि शायद उनकी पत्नी ने ही उन्हें उस स्तर तक पहुँचाया हो सकता है.

नंबर 2. यह सोचने पर मजबूर करता है कि शायद मुझे खुद भी अपने "reasonable defaults" पर आत्मचिंतन करना चाहिए.

 

मुख्य लेख भी और टिप्पणियां भी हैरान कर देने वाली हद तक नकारात्मक हैं। लगता है जैसे किसी ने भी Claude Code चलाकर देखा ही नहीं है..

 

डेवलपर्स रिलेशनशिप में क्यों नहीं पड़ पाते

 

nanoclaw खोजने पर अब भी nanoclaw.net, git के नीचे दिख रहा है।

 

लगता है cheating tool बनाने वाला खुद cheating करते पकड़ा गया। हा।

 

इंस्टॉलेशन पेज पर email address मांगा जा रहा था, इसलिए लगा कि शायद यह Private Repo होगा, लेकिन यह Public Repo है।
नीचे दिए गए लिंक पर जाएँ।

https://github.com/ArtemXTech/personal-os-skills/…

 

यह बहुत मज़ेदार लग रहा है, मुझे इसे एक बार लागू करके देखना चाहिए

 

> Codex में /fast मोड सक्रिय करने पर अधिकतम 1.5 गुना तेज़ token speed, वही model और वही intelligence level बना रहता है. API में Priority Processing.
> Priority Processing की कीमत standard की 2 गुना है
> standard 272K context window से अधिक requests पर 2 गुना शुल्क लगेगा

 

क्या है ये, लगता है मेरी शब्द-संपदा कम पड़ने लगी है।
"उद्भव, slop, source attribution, framing effect, Cambrian explosion" खोजकर बैठा हूँ।

 

आजकल इतनी सारी चीज़ें क्यों खत्म हो रही हैं?

 

qmd आज़माने का सोचकर AI से रिसर्च करवाया, तो embedding वाली तरफ़ तो ठीक लगी, लेकिन BM25 और query expansion की तरफ़ Korean support अच्छा नहीं है, इसलिए इसे recommend नहीं किया गया...

 

पिछली बार जब मैंने agent के ज़रिए fine-tuning चलाकर देखा था, तो डेटा के हिसाब से overfitting की समस्या काफ़ी बार होती दिखी थी। इस बार इस notebook में LoRA/QLoRA के combination के साथ यह संभव होगा या नहीं, यह जानने की उत्सुकता है।

 

मैं तो यह उम्मीद भी नहीं करता कि सादगी को अच्छी चीज़ मानकर सराहा जाएगा। हक़ीक़त यह है कि लोग चीज़ों को बेवजह जटिल बनाकर गड़बड़ कर देते हैं, और फिर उसी गड़बड़ी को संभाल लेने के आधार पर प्रमोशन भी पा लेते हैं।

 

अगर ऐसे लोगों का आकलन करने लायक लोग ऊपर बैठे हों तो सब ठीक है, लेकिन शुरुआत से ही वह संभव नहीं होता, इसलिए ऐसी चीज़ों का निष्पक्ष मूल्यांकन नहीं हो पाता, और इसलिए ऐसे लोग ऊपर नहीं जा पाते...

यही दुष्चक्र है...

कंपनी के नज़रिए से देखें तो, लगता है कि balanced engineer के रूप में सफल होकर ऊपर जाना चाहिए, तभी अच्छे engineer/engineering principles को भी बनाए रखा जा सकता है.