मैंने भी इसे इम्प्लीमेंट करके देखा है। कई hardware इस्तेमाल करते समय Obsidian vault को GitHub backup के साथ लिंक किया जा सके, इसके लिए थोड़ा-सा और जोड़ा है। Codex और Gemini के लिए parser भी बनाकर शामिल कर दिए हैं। https://github.com/hang-in/seCall

 

अगर आप आधुनिक LLM को "अगला शब्द predict करना" कहकर खारिज करेंगे, तो AlphaGo भी आखिर "अगली चाल predict करना" भर ही है।

ChatGPT से आगे, अगला शब्द predict करना सिर्फ़ साधारण pre-trained तक सीमित नहीं है।

असल में यह लक्ष्य हासिल करने वाला मॉडल है।

 

सुना है कि kernel developers पिछले करीब 10-20 साल से PostgreSQL developers से कहते आ रहे थे, 'userland में spinlock की सिफारिश नहीं की जाती, इसलिए अच्छा होगा अगर आप इस पर फिर से विचार करें'..

https://x.com/kosaki55tea/status/2040458791536497035

 

अगर आप पहले से Claude code agent team का इस्तेमाल कर रहे हैं, तो इसमें बहुत कुछ खास नया नहीं था.
लेकिन agents या skills का उपयोग करके ऐसा इंफ्रास्ट्रक्चर बनाना सुविधाजनक था, जिससे टीम कॉन्फ़िगरेशन जैसी चीज़ें नई sessions में भी जारी रखी जा सकें.
टीम को मैन्युअली कॉन्फ़िगर करने पर टीम के लिए boilerplate जैसी चीज़ें बार-बार दोहरानी पड़ती थीं.

एक समस्या थी: क्योंकि यह environment subagent और agent team दोनों को ध्यान में रखकर बना है, Supervisor pattern में अक्सर ऐसी अजीब स्थिति आ जाती है जहाँ supervisor, टीम पहले से बनी होने के बावजूद, काम subagent को सौंप देता है.

 

https://github.com/google-ai-edge/gallery/issues/437

लगता है Exynos compatibility अच्छी नहीं है। Galaxy Quantum 5 (A55) पर जवाब में चीनी अक्षरों को अनंत बार दोहराने की समस्या दिख रही है।

 

मुझे लगता था कि GPT के बाद बाज़ार में आए बड़े language model, diffusion model इस्तेमाल करने वाले कुछ मॉडलों को छोड़कर, सभी next token predict करने वाले फ़ॉर्मेट में ही काम करते हैं। अगर कोई ऐसा मॉडल है जो किसी अलग तरीके से काम करता है, तो बताने के लिए आभारी रहूँगा।

 

मुझे तो यह भी नहीं पता था कि symmetric 25-gigabit LAN जैसी कोई चीज़ मौजूद है। मैंने सोचा था कि घर में 10Gbps स्तर का कनेक्शन भी जरूरत से ज़्यादा होता है...

 

मैंने इसे पहले इस्तेमाल किया था, लेकिन Claude बार-बार rtk से पैदा हुई समस्याओं को हल करने के लिए और ज़्यादा tokens खर्च करने लगा, इसलिए मैंने इसे हटा दिया।
(उदाहरण के लिए, curl से JSON request करने पर यह invalid JSON बना देता था, जिससे jq error दे देता था, फिर Claude उसे debug करते-करते tokens खर्च करता रहता था, और आखिर में raw curl request फिर से लेकर jq से parse करने की नौबत आ जाती थी.)
फिर भी मुझे लगता है कि इसका इरादा अपने आप में एक अच्छा प्रयास है, इसलिए अगर यह stable हो जाए तो इस्तेमाल करने लायक हो सकता है।

 

मुझे भी उस हिस्से में अफ़सोस था!

हाल ही में जो अपडेट हुआ है, उसमें full output को एक अलग फ़ाइल में छोड़ दिया जाता है ताकि ज़रूरत होने पर llm उसे पढ़ सके~

 

आधिकारिक होमपेज का नवीनीकरण GnuBoard 7 के रिलीज़ से पहले कर दिया गया था।

 

इसी वजह से कभी-कभी इसे नए सिरे से लिखना ही ज़्यादा तेज़ पड़ता है।

 

सच में इतना कम करता है या नहीं, पता नहीं। agent को बार-बार rtk ls.. कमांड इस्तेमाल करने को कहा, लेकिन वह करता ही नहीं है।

 

तो क्या फिर नवीनतम मॉडल कुछ अलग है? अगर इसमें कोई गलत बात हो तो कृपया बताइए, इससे मेरे सहित दूसरे लोगों को भी मदद मिल सकती है haha

 

स्पैम जैसे वाक्यांशों को खोजने वाले search result URL को दूसरे ब्लॉग की पोस्टों में backlink के रूप में दर्ज करने वाला स्पैम भी होता है;
आखिरकार, जो भी हो, उसे हाथ से मिटाना ही पड़ता है...

 

> LLM एक "दिए गए इनपुट के लिए सबसे उपयुक्त आउटपुट जनरेट करने वाला" अगला-शब्द भविष्यवाणी मॉडल है

लगता है GPT-3 की बात हो रही है।

 

मैं खुद भी इसे इस्तेमाल कर रहा हूँ.. लेकिन rtk compression की वजह से कभी-कभी Claude Code कमांड के नतीजों से ज़रूरी context हासिल नहीं कर पाता, इसलिए लगता है कि यह case by case है।

 

ऐसा लगता है कि दूसरे users के use cases में कुछ side effects हैं।
उम्मीद है कि इन्हें जल्द ही पार कर लिया जाएगा और यह अच्छी तरह लागू हो पाएगा।
https://reddit.com/r/ClaudeCode/…

 

यहाँ Sparta-स्टाइल बोलचाल..? हाहा