मैंने उस Technojoy प्रोडक्ट से अपग्रेड किया था और 2 महीने इस्तेमाल करने के बाद, अज्ञात कारणों से SSD खराब हो गया। अलग से कोई AS नहीं मिल पाया और नुकसान उठाना पड़ा। संदर्भ के लिए अपना अनुभव छोड़ रहा हूँ.

काफी सोच-विचार के बाद अभी मैं iBoff प्रोडक्ट खरीदकर इस्तेमाल कर रहा हूँ, और फिलहाल कोई बड़ी समस्या नहीं है।

 

Django का इस्तेमाल करने के बाद, एक ऐसे यूज़र के तौर पर जिसने अपने करियर में पूरी तरह सुधार का अनुभव किया है, मैं इसका बहुत आभारी हूँ। मैंने Django में कुछ बार contribution भी किया है, और उम्मीद है कि इसे लंबे समय तक प्यार मिलता रहे, हाहा

 

आजकल बिल्कुल इसी की ज़रूरत थी....

>सिर्फ़ macOS के लिए CLI टूल

हाय...

 

https://hi.news.hada.io/topic?id=21081 यह लेख याद रह गया है।

 

ओह, बढ़िया है। पहले मैंने rename कमांड इस्तेमाल करके किया था, लेकिन अगर पहले से प्रीव्यू मिल जाए और undo सपोर्ट भी हो, तो यह वाकई बहुत सुविधाजनक होगा

 

2.5 आए हुए भी काफ़ी समय हो गया है, फिर 1.5 क्यों?

 

मुझे लगता है कि अगर समर्थन में benchmark नतीजे हों, तो डेवलपर्स उससे ज़्यादा सहमत हो पाएंगे। अगर framework-केंद्रित coding बहुत ज़्यादा हो, तो साइट का धीमा होना तय है, लेकिन व्यक्तिगत रूप से मैंने page transition के मामले में vanilla code से बनी साइटों को optimized framework साइटों से ज़्यादा धीमा देखा है। बेशक, अगर कोई साइट सिर्फ static data से बनी हो, तो शायद केवल HTML + CSS होना ज़्यादा तेज़ हो, लेकिन आज के समय में सिर्फ static data वाली साइटें कितनी आम हैं, इस पर मुझे पक्का नहीं है।

 

क्या बिना सहमति के व्यक्तिगत जानकारी इकट्ठा की जा सकती है?

 

अगर macOS में सिर्फ NVIDIA GPU इस्तेमाल करने दिया जाए, तो बस वही काफ़ी होगा... हाह.

 

> डेवलपर्स को लगता है कि AI ने उन्हें ज़्यादा तेज़ बना दिया है
AI की मदद से research तेज़ हो जाती है, इसलिए quality को बेहतर बनाया जा सकता है, तो क्या एक ही काम का नतीजा भी थोड़ा बेहतर quality के साथ नहीं आ सकता? शायद डेवलपर्स यह सोचते हैं कि काम के बाद जिस quality के नतीजे तक पहुँचना है, वहाँ अकेले पहुँचने की तुलना में AI की मदद से पहुँचना ज़्यादा तेज़ है।
मुझे यह भी लगता है कि अगर शुरू से इसका इस्तेमाल न किया जाता, तो शायद लोग अपनी सीमित जानकारी के भीतर ही implement करते, इसलिए ऐसा महसूस होता होगा.

 

नंबर इकट्ठा करना काफ़ी असहज लगता है। इसे कैसे इस्तेमाल किया जाएगा, इसकी कोई व्याख्या भी नहीं है।

 

यूज़र्स से भी बड़ी समस्या यह है कि अगर आप किसी खास राजनीतिक दल के साथ खड़े media SNS या YouTube पर कमेंट करें, तो आप ऐसे AI bots देख सकते हैं जो तुरंत झुंड बनाकर टूट पड़ते हैं.

 

मुझे लगता है कि आपने 300 उपयोगकर्ताओं के लिए जिन reasoning क्षमताओं का मानक रखा है, उसका दायरा कुछ ज़्यादा ही व्यापक मान लिया है। अगर सच में सामान्य common sense से लेकर research paper या advanced topics तक सब कुछ संभालना है, तो यह तरीका सही हो सकता है। लेकिन अगर उन वास्तविक कामों के स्तर को देखें जिन्हें प्रोसेस करना है, तो लगभग 30B मॉडल में RAG जुड़ा हो तो ज़्यादातर काम संभाले जा सकते हैं। ऐसा लग रहा है कि base open source के सभी weights बढ़ाकर high reasoning capability पर फीचर्स को निर्भर बनाने की वजह से स्केल बहुत बड़ा हो गया है, क्या ऐसा नहीं है?? और जो चीज़ें तुरंत प्रोसेस की जा सकती हैं और दस्तावेज़ों की search/exploration हैं, उन्हें अलग-अलग फ़ंक्शन के रूप में विभाजित करना सही लगता है.
एक साथ 300 लोगों को संभालने के लिए KV cache के target token range भी, अगर प्रति उपयोगकर्ता लगभग 20000 token के quantized value के स्तर पर रखा जाए, तो काफ़ी आराम से इस्तेमाल किया जा सकता है; हो सकता है यह हिस्सा भी ज़रूरत से ज़्यादा आंका गया हो... ??
अगर सच में वे 300 लोग research paper लिखने वाले PhD स्तर के लोग नहीं हैं, तो reasoning level को high school student (14~30B) के स्तर पर रखकर, अलग-अलग आंतरिक दस्तावेज़ों को RAG logic के अनुसार उपयुक्त CoT के साथ खोजने की प्रक्रिया के रूप में सेट कर दिया जाए, तो शायद यह एक उचित लागत पर pilot operation स्तर का प्रोजेक्ट बन सकता है.

 

allwehear.com
आप ऊपर दी गई वेबसाइट पर voice summary देख सकते हैं।

 

लगता है आमतौर पर darknamer ही काफ़ी होगा, लेकिन जहाँ performance की ज़रूरत हो वहाँ यह इस्तेमाल करना और बेहतर रहेगा।

 

अरे, हाँ lol मेरा भी jhk0530 की बात का खंडन करने का इरादा नहीं था.
मुझे भी लगता है कि अगर साइट personal information माँगती हो, तब भी अगर आपने यह बताकर पोस्ट किया होता कि वह आप ही हैं, तो शायद कोई समस्या नहीं होती,
लेकिन उल्टा, आपने बताए बिना पोस्ट किया, इसलिए वह और भी असहज लग रहा है

 

आह, मेरा इरादा लिंक की सामग्री के बारे में नहीं था (जिसमें personal data collection भी शामिल है), बल्कि उस हिस्से के बारे में था जहाँ लिंक पोस्ट किया गया था। समझाने के लिए धन्यवाद।

 

मैंने ऐसे लोगों को नहीं देखा हो, ऐसा नहीं है जो बाहरी लेख को ऐसे पोस्ट करते हैं मानो वह उनका अपना न हो,
लेकिन इस मामले में तो ऐसा लग रहा है कि आपने अपना न होने का दिखावा करते हुए व्यक्तिगत जानकारी इकट्ठा की है, इसलिए यह समस्याजनक दिखता है।