हमारी निवेशक कंपनी(!) ने हमारे ऐप के लिए JS SDK बना दिया है

निवेशक कंपनी इस तरह भी सपोर्ट करती है
काफ़ी दिलचस्प है

 

Apple M, हाहा
बस RISC ही होगा
काफी इरादतन लिखा गया लेख

 

मूल लेख था

Ask HN: Why hasn't x86 caught up with Apple M series?

लेकिन मुख्य पाठ किसी ब्लॉग पोस्ट के सारांश जैसा बन गया है।

 

Evan You (Vue.js, Vite के निर्माता) के एक इंटरव्यू में सुना था कि TJ Holowaychuk द्वारा बनाया गया express.js बहुत साफ़-सुथरे और खूबसूरत तरीके से डिज़ाइन किया गया है, इसलिए मैंने उसका कोड कुछ बार पढ़ने की कोशिश की। मैं उसका पूरा बड़ा चित्र तो समझ नहीं पाया, लेकिन कुल मिलाकर यह महसूस हुआ कि कोड जटिल नहीं है और उसमें सिर्फ़ ज़रूरी logic ही बहुत साफ़ तरीके से लिखा गया है.

Comments भी अच्छे से लिखे गए हैं, इसलिए 10 साल पुराना कोड होने के बावजूद type inference या DTO format समझने में काफ़ी मदद मिली.

 

मैं CalDAV task और ntfy के साथ alerts को importance के हिसाब से अच्छी तरह सेट करता हूँ, और notifications के inbox को बार-बार चेक करके जमा हुए काम निपटाता हूँ—अभी तक यह अच्छी तरह काम कर रहा है।

 

अगर M4 की RAM upgrade करनी है, तो मैं उतने पैसों में बस x86 ही खरीद लूंगा...

 

क्या Apple डेवलपर्स को ऐसे environment में जबरन migrate नहीं करवा सकता जहाँ उनके chips अच्छी तरह काम करते हों, इसलिए performance और भी बेहतर दिखती है?

 

हमारा-हमारा कहकर बहुत उत्साहित हैं

 

मुझे दो तरह के OS का मिलाना पसंद नहीं है। पता नहीं इससे किस तरह के side effects हो सकते हैं। मेरा मानना है कि हर OS या तो sandbox में होना चाहिए या एक पूरा physical server अकेले इस्तेमाल करना चाहिए। इसके अलावा, पहले WSL के अजीब तरह से काम करने का अनुभव भी रहा है।

 

उम्मीद है कि आप guidelines पढ़कर विषय के मुताबिक टिप्पणी करेंगे।

 

यीशु पर विश्वास करें।
कृत्रिम बुद्धिमत्ता मूल रूप से कृत्रिम चेतना है।
हम यह नहीं जानते कि बुद्धि, बुद्धि क्यों है और चेतना, चेतना क्यों है, इसलिए हम इसे समझ नहीं पाते।
अगर हमें पता होता कि समझ, समझ क्यों है, तो शायद हम अब तक सब कुछ जान चुके होते।

 

केवल कुछ खास कार्यों के दौरान ही उच्च दक्षता प्रदान करता है।

 

मुझे सच कहूँ तो benchmarks में जैसा कहा जाता है, वैसा कोई बहुत बड़ा फर्क महसूस नहीं हुआ।
मेरे अनुभव में बस “थोड़ा बेहतर” जैसा स्तर है, कोई बहुत नाटकीय अंतर नहीं लगा।
उल्टा, मॉडलों की performance अब काफी हद तक बराबर हो गई है, इसलिए लोगों को उनकी तुलना और सख्ती से करते हुए भी ऐसा महसूस होता है, हाहा।
आखिरकार, असली बात यह है कि उसे किस situation में इस्तेमाल किया जा रहा है, उसी पर फर्क पड़ता है।

Gemini का context window बहुत बड़ा है, इसलिए यह बड़े codebase या लंबे context को बनाए रखने में अच्छा लग सकता है, और Claude की ताकत stable coding accuracy है, इसलिए use case के हिसाब से चुनना सही रहेगा।

 

AI बेंचमार्क नंबरों को छोड़कर, क्या वास्तविक उपयोग अनुभव में ऐसा कोई मॉडल है जिसकी coding performance Claude से बेहतर हो?

 

क्या मैं सावधानी से यह पूछ सकता हूँ कि आपको यह क्यों पसंद नहीं है?

 

इंसान तो लड़ते हैं, लेकिन प्रोग्राम नहीं लड़ते और ज़्यादा तार्किक होते हैं..

 

हाँ, इसका इस्तेमाल किया जा सकता है। मुझे व्यक्तिगत रूप से WSL / WSL2 पसंद नहीं है, इसलिए मैंने hyperv पर docker इंस्टॉल करके यही इस्तेमाल किया हुआ है.