दिलचस्प है। क्या भविष्य के लिए आपके पास कोई विकास योजना है?

 

सही है.. vision encoder इस्तेमाल होने पर 1B model भी 9G VRAM खा जाता है।

 

मुझे लगता है कि Sam Altman कोई sociopath reptile है।

 

"हाथों से भौतिक वस्तुएँ बनाने का कार्य आंतरिक परिवर्तन लाता है"

 

मेरे पास RTX Pro 6000 (96GB, असल में 94GB) है, लेकिन ollama में 122B मॉडल लोड नहीं हो रहा। शायद यह vision model होने की वजह से है, क्योंकि इसमें vision transformer वाला हिस्सा भी शामिल है। GPT OSS 120b मॉडल तो आराम से लोड हो जाता है।

 

परफ़ॉर्मेंस तभी मिलती है जब इसे CUDA-आधारित llama.cpp सर्वर पर चलाया जाए।

 

धन्यवाद। मुझे डर लग रहा था कि अब cowork आ गया है जो सिर्फ PC चालू छोड़ देने पर सर्वर की भूमिका भी निभा देता है, लेकिन अब थोड़ी तसल्ली हुई और आगे यह कैसे बदलेगा, इसकी एक तस्वीर दिमाग में बनने लगी है, हाहा

 

X पर इस बारे में चर्चा हुई थी; अगर इसे Docker में इस्तेमाल कर रहे हों, तो Docker daemon PID को ज़बरदस्ती देकर यह भी काम करता है, ऐसा कहा गया है.

https://github.com/vercel-labs/portless/issues/61

 

अब EADDRINUSE एरर से छुटकारा मिल गया क्या?
आजकल एजेंट्स के ज़रिए ये-वो डेवलपमेंट करते हुए लोग बहुत सारी चीज़ें चला देते हैं, तो वे आपस में टकरा जाती हैं और बड़ा हंगामा हो जाता है, हाहा

 

लेकिन मॉडल खुद कुछ ही महीनों में बदल जाता है
और मॉडल के हिसाब से agents को भी संशोधित करना पड़ता है...
क्या सही agents संरचना बनाने में लगने वाले समय से भी ज़्यादा तेज़ मॉडल का बदलाव नहीं हो रहा है?
यानी इंसान के किसी टूल का अभ्यस्त होने से पहले ही वह टूल बदल जाता है...

 

मैं पूरी तरह non-developer हूँ... AI के साथ छेड़छाड़ करने के मज़े में उससे थोड़ी coding करवा रहा था, तो उसने बिना कहे ही ढेर सारे test code बनाकर संभालकर रख दिए; अब समझ आया कि इसकी ऐसी वजह थी।
जब मैंने पूछा कि आखिर इसकी ज़रूरत ही क्यों है, तो उसने कहा कि उसे code बनाते समय इसकी ज़रूरत पड़ती है, इसलिए इन्हें मत हटाइए।

 

Gemini भी बंद हो गया। Claude भी बंद हो गया।
लेकिन अगर API के लिए पैसे देकर इस्तेमाल करें, तो कोई समस्या नहीं है।

मुझे समझ नहीं आता कि कुछ विदेशी लोग कैसे सोचते हैं कि OAuth से third-party में authenticate करके सस्ती subscription fee पर इस्तेमाल करना कोई समस्या नहीं होगी.

 

ओ... लगता है यह सही है।

 

इंसान भी चीज़ों को सचमुच रैंडम तरीके से चुनने में अच्छे नहीं होते। उनमें कोई पैटर्न नहीं होना चाहिए, लेकिन पैटर्न से जानबूझकर बचना भी अपने आप में एक पैटर्न माना जा सकता है।

 

वास्तविक token उपयोग को किसी एकल कार्य के लिए मापने वाला कोई परिणाम नहीं है, और यह सिर्फ एक अनुमान लगता है कि magpie का उपयोग करने पर retries लगभग इतने कम हो जाएंगे।

 

Compilation Time की तुलना अजीब लग रही है। ms/token की तुलना क्यों कर रहे हैं?

 

लगता है कि इससे जुड़ी घटनाओं की एक टाइमलाइन तैयार करने की ज़रूरत है। यह भी कहा जा रहा है कि OpenAI के साथ contract negotiations चल रही थीं, है न?

 

मैं हमेशा आपकी सामग्री ध्यान से पढ़ता/पढ़ती हूँ, धन्यवाद।