मुझे भी उस Osmani वाली बात जैसा सब कुछ ठूंसकर ऐप बनाते समय यही बात सामने आई, इसलिए थोड़ा जल्दबाज़ी में कह रहा हूँ,
लेकिन Osmani भी सिर्फ़ बातों तक सीमित रहने के बजाय
अगर उसने Google Anti-Gravity में अपनी कही हुई बातों को शामिल कराया होता तो शायद बेहतर नहीं होता?
Kapasi भी ऐसा ही है, अब बस बनाने का सोचते ही नहीं और सिर्फ़ एक लेख फेंककर खत्म कर देने वाला रवैया है, इस पर तो बस कहना पड़ेगा: पता नहीं!
मॉडल से ज्यादा सिस्टम (harness) सफलता या विफलता तय करता है: AI का प्रदर्शन GPT या Claude जैसे मॉडल से अधिक, उसके आसपास बने prompt, tools, sandbox, feedback loop आदि यानी 'harness' कहलाने वाले कार्य-पर्यावरण के डिज़ाइन पर निर्भर करता है।
गलतियों को नियम में बदलने का 'Ratchet' सिद्धांत: AI की गलती को साधारण चूक मानकर छोड़ने के बजाय, उसे तुरंत नियम दस्तावेज़ (जैसे AGENTS.md) या hook में शामिल करना चाहिए, ताकि समय के साथ सिस्टम और मजबूत होता जाए।
समस्या मॉडल की नहीं, configuration (Skill) की है: कई बार AI का खराब प्रदर्शन उसकी बुद्धिमत्ता की कमी नहीं, बल्कि harness डिज़ाइन की कमजोरी के कारण होता है; इसलिए इच्छित परिणाम से उलटी दिशा में सोचकर आवश्यक घटकों और constraints को डिज़ाइन करने वाला engineering approach अनिवार्य है।
पहले मैं prompt में साफ़-साफ़ लिखता था कि A करो, फिर भी एक तय संभावना के साथ वह बार-बार नहीं मानता था, इसलिए मैंने mrkdwn bold से ज़ोर देकर देखना, दो बार लिखकर देखना, English में लिखकर देखना, शुरुआत और अंत को जोड़कर लिखना, XML में लिखकर देखना—ऐसे न जाने क्या-क्या करके देखा, लेकिन वह फिर भी एक तय संभावना के साथ prompt को नज़रअंदाज़ करता रहा...
लेकिन जब prompt में A करो, B मत करो जैसा कहा जाता है, तो अगर वह इसे सच में बहुत अच्छी तरह समझे तभी ऐसा approach कारगर लगेगा। AI server की स्थिति के हिसाब से अगर prompt को probabilistic तरीके से follow किया जाता है, तो क्या ऐसा approach फिर भी प्रभावी होगा?
मुझे लगता है कि वे सोचते हैं कि अगर stealth patch से performance घटा भी दें तो किसी को पता नहीं चलेगा, लेकिन असल में लोगों की instinct सोच से ज़्यादा तेज़ होती है, इसलिए मेरी instinct + कम्युनिटी के लोगों की बातों को मिलाकर देखें तो जवाब तुरंत मिल जाता है.
"तो फिर तुम कर क्या सकते हो, lol" वाली बात है, इसलिए मजबूरी में बस इस्तेमाल करते हैं....
codex-केवल मॉडल 5.3 के समय सच में ऐसा लगता था जैसे किसी ऐसे जूनियर सहकर्मी से बात कर रहे हों जिसे बातचीत की समझ नहीं है, लेकिन coding सिर्फ़ अच्छी आती है.
5.4 से इसने थोड़ा-थोड़ा बोलना शुरू किया, और 5.5 से लगता है कि यह आधा-अधूरा ही सही, लेकिन कुछ हद तक संभल गया है.
अब भी कभी API को contract कह देता है, और कभी-कभी English और Korean को पागलों की तरह मिलाकर बोलता उगल देता है, इसलिए मुझे लिखना पड़ता है, "समझने में आसान तरीके से, जितना हो सके English कम करके समझाओ".
फिर भी, code निकालने की performance मुझे महसूस होने के हिसाब से 5.4 से Opus से आगे निकल गई थी. Opus 4.7 आया है, लेकिन मैंने उसे हल्का सा भी ट्राय नहीं किया. क्योंकि साफ़ दिखता है कि वह फिर से "Anthropic"-स्टाइल marketing ही होगी.
लेकिन Harness को पिछले हफ़्ते तक तो खूब बेचा जा रहा था, इस हफ़्ते से फिर शांत है.. शायद Anthropic की गड़बड़ी और Codex 5.5 के शानदार होने की वजह से........
मैं इसे कई सालों से इस्तेमाल कर रहा हूँ, लेकिन agent-आधारित मॉडल की ओर जाने के साथ इसकी उपयोगिता धीरे-धीरे कम होती लग रही है, हाहा।
फिर भी, निजी दस्तावेज़ लिखने या हाथ से कोडिंग करने वाले मामलों में यह काफ़ी मददगार साबित होता है।
अगर quota बढ़ाए बिना 27 गुना multiplier हो जाए, तो क्या agentic coding इस्तेमाल करने लायक भी नहीं रह जाएगी?
VibeVoice - Microsoft का अगली पीढ़ी का open source voice synthesis मॉडल
GeekNews पर यह शुरुआत में ही तुरंत सार्वजनिक कर दिया गया था, लेकिन किसी issue की वजह से VibeVoice-TTS कोड हटा दिया गया लगता है.
लगता है कि अभी TTS के लिए सिर्फ VibeVoice-Realtime ही इस्तेमाल किया जा सकता है.
पिछले कुछ दिनों में VibeVoice-ASR की वजह से यह फिर से लोकप्रिय हो रहा है, ऐसा जगह-जगह दिख रहा है.
https://simonwillison.net/2026/Apr/27/vibevoice/
Simon Willison ने इसे टेस्ट किया, और Mac पर uv और mlx-audio का इस्तेमाल करके इसे एक single-line command से चलाया जा सकता है,
और 1 घंटे की audio को 128GB M5 Max MacBook Pro पर लगभग 8 मिनट 45 सेकंड में प्रोसेस कर लिया.
इसे speaker separation अच्छी तरह करने वाला Whisper समझा जा सकता है.
यह तो एक ऐसे वरिष्ठ डेवलपर के लेख का विश्लेषण तक किया गया है जो बिना खास सार वाली बातों को भी काफ़ी भरोसेमंद ढंग से पेश करता है (व्यक्तिगत रूप से मुझे Google पसंद नहीं है, उसके लिए माफ़ी). बेशक, इस परिघटना को समझने की दिशा में किया गया यह एक अच्छा प्रयास लगता है.
SDD जैसी चीज़ों का hype तो काफ़ी पहले ही खत्म हो चुका था, अब लगता है बारी harness की है।
हैरानी वाली बात यह है कि harness में एक हिस्सा ऐसा है जो साफ़ तौर पर training data में नहीं था, फिर भी model ने harness जैसी अवधारणा को बहुत जल्दी समझ लिया।
शायद इसलिए कि उसने पहले से मौजूद शब्द के अर्थ को उसी तरह इस्तेमाल किया; मैंने इसका ज़िक्र भी नहीं किया था, लेकिन वह खुद ही harness को update करते हैं जैसी बातें कहने लगा।
मुझे भी उस Osmani वाली बात जैसा सब कुछ ठूंसकर ऐप बनाते समय यही बात सामने आई, इसलिए थोड़ा जल्दबाज़ी में कह रहा हूँ,
लेकिन Osmani भी सिर्फ़ बातों तक सीमित रहने के बजाय
अगर उसने Google Anti-Gravity में अपनी कही हुई बातों को शामिल कराया होता तो शायद बेहतर नहीं होता?
Kapasi भी ऐसा ही है, अब बस बनाने का सोचते ही नहीं और सिर्फ़ एक लेख फेंककर खत्म कर देने वाला रवैया है, इस पर तो बस कहना पड़ेगा: पता नहीं!
https://github.com/hang-in/tunaFlow
https://docs.github.com/ko/copilot/…
हाँ
3 पंक्तियों में सारांश
मैं इसे संदर्भ के लिए देखूंगा। धन्यवाद।
रोडमैप https://tolaria.canny.io/
पहले मैं prompt में साफ़-साफ़ लिखता था कि A करो, फिर भी एक तय संभावना के साथ वह बार-बार नहीं मानता था, इसलिए मैंने mrkdwn bold से ज़ोर देकर देखना, दो बार लिखकर देखना, English में लिखकर देखना, शुरुआत और अंत को जोड़कर लिखना, XML में लिखकर देखना—ऐसे न जाने क्या-क्या करके देखा, लेकिन वह फिर भी एक तय संभावना के साथ prompt को नज़रअंदाज़ करता रहा...
लेकिन जब prompt में
A करो,B मत करोजैसा कहा जाता है, तो अगर वह इसे सच में बहुत अच्छी तरह समझे तभी ऐसा approach कारगर लगेगा। AI server की स्थिति के हिसाब से अगर prompt को probabilistic तरीके से follow किया जाता है, तो क्या ऐसा approach फिर भी प्रभावी होगा?27 गुना? वाह!
मुझे लगता है कि वे सोचते हैं कि अगर stealth patch से performance घटा भी दें तो किसी को पता नहीं चलेगा, लेकिन असल में लोगों की instinct सोच से ज़्यादा तेज़ होती है, इसलिए मेरी instinct + कम्युनिटी के लोगों की बातों को मिलाकर देखें तो जवाब तुरंत मिल जाता है.
"तो फिर तुम कर क्या सकते हो, lol" वाली बात है, इसलिए मजबूरी में बस इस्तेमाल करते हैं....
codex-केवल मॉडल 5.3 के समय सच में ऐसा लगता था जैसे किसी ऐसे जूनियर सहकर्मी से बात कर रहे हों जिसे बातचीत की समझ नहीं है, लेकिन coding सिर्फ़ अच्छी आती है.5.4 से इसने थोड़ा-थोड़ा बोलना शुरू किया, और 5.5 से लगता है कि यह आधा-अधूरा ही सही, लेकिन कुछ हद तक संभल गया है.
अब भी कभी API को contract कह देता है, और कभी-कभी English और Korean को पागलों की तरह मिलाकर बोलता उगल देता है, इसलिए मुझे लिखना पड़ता है, "समझने में आसान तरीके से, जितना हो सके English कम करके समझाओ".
फिर भी, code निकालने की performance मुझे महसूस होने के हिसाब से 5.4 से Opus से आगे निकल गई थी. Opus 4.7 आया है, लेकिन मैंने उसे हल्का सा भी ट्राय नहीं किया. क्योंकि साफ़ दिखता है कि वह फिर से "Anthropic"-स्टाइल marketing ही होगी.
वाह, बहुत अच्छा है। साझा करने के लिए धन्यवाद
tailscale तो कमाल है..
लेकिन Harness को पिछले हफ़्ते तक तो खूब बेचा जा रहा था, इस हफ़्ते से फिर शांत है.. शायद Anthropic की गड़बड़ी और Codex 5.5 के शानदार होने की वजह से........
'अरे? लगा कि यह पहले भी देखा है...' सोचा था, लेकिन यह तो "साथ में पढ़ने लायक लेख" में सीधे लिंक भी दे देता है, हाहा
मैं इसे कई सालों से इस्तेमाल कर रहा हूँ, लेकिन agent-आधारित मॉडल की ओर जाने के साथ इसकी उपयोगिता धीरे-धीरे कम होती लग रही है, हाहा।
फिर भी, निजी दस्तावेज़ लिखने या हाथ से कोडिंग करने वाले मामलों में यह काफ़ी मददगार साबित होता है।
अगर quota बढ़ाए बिना 27 गुना multiplier हो जाए, तो क्या agentic coding इस्तेमाल करने लायक भी नहीं रह जाएगी?
VibeVoice - Microsoft का अगली पीढ़ी का open source voice synthesis मॉडल
GeekNews पर यह शुरुआत में ही तुरंत सार्वजनिक कर दिया गया था, लेकिन किसी issue की वजह से VibeVoice-TTS कोड हटा दिया गया लगता है.
लगता है कि अभी TTS के लिए सिर्फ VibeVoice-Realtime ही इस्तेमाल किया जा सकता है.
पिछले कुछ दिनों में VibeVoice-ASR की वजह से यह फिर से लोकप्रिय हो रहा है, ऐसा जगह-जगह दिख रहा है.
https://simonwillison.net/2026/Apr/27/vibevoice/
Simon Willison ने इसे टेस्ट किया, और Mac पर
uvऔर mlx-audio का इस्तेमाल करके इसे एक single-line command से चलाया जा सकता है,और 1 घंटे की audio को 128GB M5 Max MacBook Pro पर लगभग 8 मिनट 45 सेकंड में प्रोसेस कर लिया.
इसे
speaker separation अच्छी तरह करने वाला Whisperसमझा जा सकता है.यह तो एक ऐसे वरिष्ठ डेवलपर के लेख का विश्लेषण तक किया गया है जो बिना खास सार वाली बातों को भी काफ़ी भरोसेमंद ढंग से पेश करता है (व्यक्तिगत रूप से मुझे Google पसंद नहीं है, उसके लिए माफ़ी). बेशक, इस परिघटना को समझने की दिशा में किया गया यह एक अच्छा प्रयास लगता है.
SDD जैसी चीज़ों का hype तो काफ़ी पहले ही खत्म हो चुका था, अब लगता है बारी harness की है।
हैरानी वाली बात यह है कि harness में एक हिस्सा ऐसा है जो साफ़ तौर पर training data में नहीं था, फिर भी model ने
harnessजैसी अवधारणा को बहुत जल्दी समझ लिया।शायद इसलिए कि उसने पहले से मौजूद शब्द के अर्थ को उसी तरह इस्तेमाल किया; मैंने इसका ज़िक्र भी नहीं किया था, लेकिन वह खुद ही
harnessको update करते हैं जैसी बातें कहने लगा।लगता है कि बस मार्केटिंग के शब्द ही बहुत ज़्यादा बढ़ते जा रहे हैं।
तो कॉलेज छात्रों का क्या?