सही बात है। मैंने भी शुरुआत में सोचा था कि synthetic memory कम से कम baseline से तो बेहतर होगी, लेकिन नतीजे देखकर मैं भी हैरान रह गया।

विश्लेषण करने पर लगा कि असली मुद्दा "अनिश्चितता को सुरक्षित रखना" था। raw logs में "यह करके देखा, लेकिन काम नहीं किया", "कारण पता नहीं" जैसी निशानियां बची रहती हैं, इसलिए agent जिसे नहीं जानता, उसके बारे में नहीं जानता कहकर जवाब देता है। लेकिन summary में वह सारा संदर्भ मिट जाता है, और उल्टा वह गलत जवाब भी पूरे भरोसे के साथ देने लगता है।

 

अनुभव के आधार पर मुझे इसका कुछ-कुछ एहसास था, लेकिन synthetic memory मेरी सोच से भी कहीं ज़्यादा बुरी निकली।

 

मैं इसे आज़माना चाहता था, लेकिन यह सिर्फ़ gemini 2.5 तक ही support करता है... क्या supported models की list भी vibe coding से बनाई गई है

 

दिलचस्प है, लेकिन ऐसा भी लग सकता है कि वे बस ज़्यादा token इस्तेमाल करके ज़्यादा लागत वसूलने वाली दिशा में विकसित हुए हैं, और सच कहें तो कुछ हद तक libraries ऐसी भी लगती हैं जिन्हें AI ने सीख लिया है, इसलिए वह उन्हें बस बना देता है.
एजेंट की पसंद के कारण अगर सिर्फ़ कुछ खास libraries ही आगे बढ़ेंगी, यह सोचकर थोड़ा अजीब भी लगता है.

 

आख़िरकार अमेरिकी रक्षा विभाग ने Anthropic को छोड़कर OpenAI को चुना, लेकिन आम तौर पर कही जाने वाली wording में फर्क दिखता है.

OpenAI ने तकनीकी safety guardrails बनाना, FDE (field engineer) तैनात करना, और cloud-only deployment जैसी ठोस implementation mechanisms साथ में प्रस्तावित किए
Anthropic ने terms of service स्तर के exception clauses की मांग की

अमेरिकी रक्षा विभाग के नज़रिए से इसे "एक निजी कंपनी अलग-अलग use cases पर veto power का इस्तेमाल करती है" की तरह देखा गया, और मानो नाराज़गी में यह घोषणा की गई.

यह समझौता Anthropic को supply chain risk के रूप में नामित किए जाने के कुछ ही समय बाद घोषित किया गया,
Axios की रिपोर्ट देखें तो रक्षा विभाग ने Anthropic के साथ टकराव का इस्तेमाल दूसरी AI कंपनियों के साथ बातचीत में tone सेट करने के लिए किया,
और OpenAI ने उस दबाव के बीच रक्षा विभाग के लिए स्वीकार्य रूप में समझौता कर लिया.

आधिकारिक बयान की भाषा में भी बड़ा फर्क है.

Sam Altman ने कहा कि "रक्षा विभाग ने safety के प्रति गहरा सम्मान दिखाया",
जबकि Anthropic की तरफ़ से अंत तक "रक्षा विभाग की मांगों से हम अंतरात्मा के स्तर पर सहमत नहीं हो सकते" वाला tone रहा.

लगता है कि सिद्धांत एक जैसे होने पर भी रक्षा विभाग की प्रतिष्ठा बनाए रखने या न रखने का फर्क बड़ा था,
और नतीजे में OpenAI ने इसे स्वीकार कर लिया तो स्थिति कुछ अजीब दिखने लगी,
इसलिए लगता है कि Sam Altman ने अंत में यह जोड़कर कि "ये शर्तें सभी AI कंपनियों को समान रूप से प्रस्तावित की जाएं",
Anthropic पर हुई कार्रवाई को नरम करने का एक परोक्ष संदेश दिया.

 

क्या यह बस minimal ही नहीं रह सकता...?
या फिर, चूँकि WordPad हट गया है, उसकी जगह कुछ नया और ज़्यादा हल्का दे दें...

 

मैं एक solo developer के तौर पर 7 projects चला रहा हूँ, और यह लेख सच में बहुत गहराई से लगा।

AI coding tools की वजह से शुरुआती development speed पागलों जैसी तेज़ हो गई है, लेकिन बिना test के जल्दी-जल्दी जो code बनाया, वह आखिरकार refactoring hell बन गया। खासकर जब कई services एक साथ चला रहे हों, तो जिस project में tests नहीं होते, उसमें एक feature को छूने भर से डर लगता है कि कहीं कुछ और न टूट जाए।

"tests = moat" वाली उपमा बिल्कुल सटीक है। competitor code को copy कर सकता है, लेकिन हज़ारों edge cases को cover करने वाली test suite को copy करना आसान नहीं है। खास तौर पर इसलिए भी, क्योंकि AI code generation तो अच्छी तरह कर लेता है, लेकिन meaningful test scenarios बनाना अभी भी ऐसा क्षेत्र है जहाँ इंसानी domain knowledge की ज़रूरत पड़ती है.

 

डेवलपर्स से मेरा एक सवाल है: हाल के समय में ज़्यादातर प्रोजेक्ट्स Golang की बजाय Rust में क्यों बनाए जा रहे हैं? क्या इसकी सबसे बड़ी वजह GC का होना या न होना है?

 

दिलचस्प रिसर्च है। खासकर "Build vs Buy" में 12/20 कैटेगरी का DIY होना प्रभावशाली है.

हमने भी AI एजेंट persona standard (Soul Spec) बनाते समय ऐसा ही अवलोकन किया था—अगर Claude Code को CLAUDE.md या AGENTS.md में tools स्पष्ट रूप से नहीं बताए जाएँ, तो उसमें अपने तरीके से implement करने की प्रवृत्ति काफ़ी मज़बूत होती है।

इस रिसर्च का "Recency Gradient" यह संकेत देता है कि किसी नए tool को Claude के default stack में शामिल होने के लिए या तो training data में पर्याप्त exposure मिलना चाहिए, या project context file में उसे स्पष्ट रूप से निर्दिष्ट करना चाहिए। आखिरकार, Context Engineering ही tool selection तक को प्रभावित करता है।

अच्छी बात यह है कि original dataset भी public है: https://github.com/amplifying-ai/claude-code-picks

 

इसे Assistive agent optimization (AAO) कहते हैं।

डेवलपर टूल्स के लिए अब यह महत्वपूर्ण हो गया है कि वे ऐसे प्रोडक्ट बनें जिन्हें एजेंट्स पसंद करें।
अगर एजेंट उसका ज़िक्र ही न करे, तो वह धीरे-धीरे दूर होता जाएगा

 

Ralph loop भी कुछ समय पहले जोड़ा गया था, और Financial skill भी जोड़ी गई थी; इसे देखकर लगता है कि अगर बस इंतज़ार करें, तो जो चीज़ें 3rd party tools में थीं, वे जल्दी-जल्दी इसमें भी आ जाती हैं।

 

शायद इसे अपनी अलग पहचान के साथ भी अनुवाद किया जा सकता है।

 

लगता है कि कंटेंट के identifier वाली जगह खाली है :(

 

असल में इस्तेमाल करके ही पता चलेगा, लेकिन होमपेज तो कमाल का है।