• एकल AI assistant और synchronous loop के साथ सहयोग करने वाले तरीके से, कई agents अपने-अपने context window और file scope के साथ asynchronous रूप से काम करने वाले orchestrator model की ओर बदलाव 2026 में जारी है
  • Subagents, Agent Teams, और hierarchical delegation जैसे 3 मुख्य pattern multi-agent coding की बुनियादी संरचना बनाते हैं, और प्रत्येक parallelism·specialization·isolation·compound learning जैसे प्रभाव देता है
  • shared task list और peer-to-peer messaging agent teams का मुख्य coordination mechanism है, जो dependency को अपने-आप unblock करने और bottleneck रोकने में मदद करता है
  • 2026 के मानक के अनुसार tool ecosystem को in-process subagents (Tier 1), local orchestrators (Tier 2), और cloud asynchronous agents (Tier 3) की 3 परतों में बांटा जाता है, और ज़्यादातर developers उपयोग के हिसाब से तीनों परतों को मिलाकर इस्तेमाल करते हैं
  • bottleneck code generation नहीं बल्कि verification की ओर शिफ्ट हो गया है, और plan approval, hooks, AGENTS.md के जरिए quality gate, तथा human review multi-agent system की reliability तय करने वाले मुख्य तत्व हैं

मौजूदा बदलाव: conductor से orchestrator तक

  • 6 महीने पहले तक ज़्यादातर developers एकल AI assistant के साथ synchronous तरीके से काम करते थे, और एक ही context window काम की ऊपरी सीमा होता था
  • अब सबसे अधिक productive developers ऐसे तरीके में शिफ्ट हो रहे हैं जहाँ कई agents, जिनके अपने context window, file scope, और responsibility area होते हैं, asynchronous रूप से coordinate किए जाते हैं
  • Conductor model: एक single agent को real-time synchronous तरीके से guide करना; Claude Code CLI और Cursor editor का agent mode इसके प्रमुख tools हैं
  • Orchestrator model: अलग-अलग context window वाले कई agents को asynchronous रूप से coordinate करना; Agent Teams, Conductor, Codex, और Copilot Coding Agent इसके प्रमुख tools हैं
  • orchestrator के रूप में काम करने के लिए स्पष्ट spec लिखना, काम को तोड़ना, और output को verify करना जैसी नई क्षमताओं की ज़रूरत होती है

AI-सहायित coding के 8 चरण

  • [orchestration]
    • L8 — अपना खुद का orchestrator बनाना: agent creation·routing·management के लिए coordination layer को खुद code करके implement करना
    • L7 — 10 से अधिक agents, manual management: "अरे, गड़बड़ हो गई।" गलत context गलत agent तक पहुँचता है और "अगर Claude Code, Claude Code को चलाए तो क्या होगा?" जैसे सवाल शुरू होते हैं
    • L6 — agent multiplexing: इंतज़ार उबाऊ लगने पर agents को एक-एक करके और चलाना, कई streams के बीच आते-जाते रहना और फिर रुक न पाना
  • [agent-first]
    • L5 — agent-first, IDE बाद में: agent conversation मुख्य workspace बन जाती है, IDE सिर्फ code जाँचने के लिए
    • L4 — diff गायब, conversation प्रमुख: हर बार diff review करने के बजाय, agent के व्यवहार को देखते हुए दिशा देने पर ध्यान
  • [IDE युग]
    • L3 — YOLO mode: agent IDE में खुलकर चलता है, भरोसा बढ़ता है
    • L2 — IDE के भीतर agent, permissions manual approval से: हर file change को खुद approve करना, पूरी तरह manual control
    • L1 — AI नहीं: पारंपरिक development workflow
  • Steve Yegge द्वारा व्यवस्थित AI tools उपयोग के 8-स्तरीय framework के अनुसार, ज़्यादातर developers level 3~4 पर रुके हुए हैं
  • orchestration layer level 6 से शुरू होती है, और level 5 तक पहुँची क्षमता से मूल रूप से अलग skill set मांगती है
  • यह सामग्री level 5~8 को कवर करती है

single agent की सीमाएँ

  • context overload: एक single agent के पास रखी जा सकने वाली information की सीमा होती है, और बड़े codebase एक single context window पर भारी पड़ते हैं
  • specialization की कमी: data layer, API, UI, और testing सब संभालने वाला agent अंततः एक generalist ही होता है, जबकि सिर्फ data layer संभालने वाला agent कहीं बेहतर DB code लिखता है
  • coordination की कमी: helper agents जोड़ देने पर भी वे आपस में communicate नहीं कर सकते, task share नहीं कर सकते, dependency resolve नहीं कर सकते; coordination primitives के बिना agents बढ़ाने पर management कठिन होता जाता है
  • subagents पहले दो समस्याएँ हल करते हैं, जबकि Agent Teams तीनों समस्याओं का समाधान करते हैं

multi-agent की ज़रूरत क्यों है

  • parallelism (3x throughput): frontend·backend·testing agents एक साथ काम करते हैं
  • specialization (focused context): हर agent सिर्फ उन्हीं files को पहचानता है जिनकी उसे ज़िम्मेदारी है; सिर्फ db.js जानने वाला agent पूरे codebase को संभालने वाले agent से बेहतर DB code लिखता है
  • isolation (safe execution): Git worktree हर agent को स्वतंत्र working directory देता है, इसलिए merge conflict नहीं होते
  • compound learning: AGENTS.md file sessions के बीच patterns और सावधानियाँ संचित करती है, जिससे हर session अगली session को बेहतर बनाता है
  • 3 focused agents, 1 ऐसे generalist agent से लगातार बेहतर प्रदर्शन करते हैं जो 3 गुना अधिक समय तक काम करता है

pattern 1: subagents — focused delegation

  • Task tool का उपयोग करके parent orchestrator से specialized child agents बनाए जाते हैं; यह सबसे सरल multi-agent pattern है और सबसे पहले इसी को आज़माना चाहिए
  • ठोस उदाहरण: अगर Claude Code को "Express और SQLite के साथ Link Shelf bookmark manager बनाओ" जैसा prompt दिया जाए, तो parent orchestrator इसे 3 subagent briefs में तोड़ देता है
    • data layer subagent: db.js बनाना और फिर DATA.md report लिखना
    • business logic subagent: validation.js बनाना और फिर LOGIC.md report लिखना
    • API route subagent: DATA.md और LOGIC.md पढ़ने के बाद server.js बनाना
  • पहले दो subagents स्वतंत्र रूप से parallel चलते हैं, तीसरा दोनों reports पूरी होने के बाद शुरू होता है; parent dependency graph को manual रूप से manage करता है
  • subagents की सीमाएँ: parent को dependency graph manual रूप से manage करना पड़ता है, और agents के बीच peer messaging या shared task list नहीं होती; file scope management ढीली हो तो conflict हो सकता है
  • कुल मिलाकर लगभग 2.2 लाख tokens, यानी लागत के लिहाज़ से लगभग neutral स्तर
  • hierarchical subagents (teams of teams)

    • orchestrator अगर सीधे 6 subagents बनाने के बजाय, 2 feature leads बनाता है और हर feature lead अपने स्तर पर 2~3 specialists बनाता है, तो ऐसी संरचना बनती है
    • parent orchestrator सिर्फ दो agents को manage करता है, जिससे context साफ़ रहता है; feature lead A को "search feature बनाओ" जैसा brief दिया जाता है और वह खुद उसे आगे तोड़ता है
    • यह वास्तविक engineering organizations के काम करने के तरीके के बिल्कुल समान सिद्धांत है: VP individual engineers को सीधे task assign नहीं करता, बल्कि tech lead के जरिए काम देता है

पैटर्न 2: एजेंट टीम — वास्तविक पैरलल एक्जीक्यूशन

  • Claude Code की एक experimental feature, जिसे export CLAUDE_CODE_EXPERIMENTAL_AGENT_TEAMS=1 कमांड से सक्रिय किया जाता है
  • 3-स्तरीय आर्किटेक्चर:
    • Team Lead: काम का विभाजन, task list बनाना, नतीजों का समेकन
    • shared task list: status (pending, in_progress, completed, blocked)·dependency tracking·file locking
    • Teammates: हर एक का स्वतंत्र Claude Code instance, अपना context window, tmux split panels में रन
  • टीममेट shared list से task खुद चुनते हैं और peer-to-peer messaging के जरिए सीधे संवाद करते हैं, Lead के माध्यम से नहीं
  • जब कोई टीममेट task पूरा करके completion mark कर देता है, तो उस पर निर्भर blocked task अपने-आप unlock हो जाते हैं
  • Ctrl+T से task list का visual overlay toggle किया जा सकता है
  • एजेंट टीम के मुख्य मैकेनिज़्म

    • shared task list: जैसे ही backend टीममेट search API को completed mark करता है, blocked test-writing task अपने-आप pending में बदल जाता है; file locking concurrent editing को रोकता है
    • peer messaging: backend agent frontend agent को API contract सीधे भेजता है — "GET /search?q= returns [{id,title,url}]"; इससे Lead coordination bottleneck नहीं बनता
    • अगर कोई टीममेट idle हो जाए, तो Lead को अपने-आप सूचना मिलती है
  • एजेंट टीम के मुख्य सुझाव

    • 3~5 टीममेट सबसे बेहतर संतुलन हैं; token cost टीम के आकार के अनुपात में रैखिक रूप से बढ़ती है
    • plan approval: implementation से पहले अगर टीममेट plan लिखते हैं, तो Lead उसे review करके approve या reject कर सकता है; code बनने से पहले architecture issues पकड़ना कहीं सस्ता पड़ता है
    • फोकस्ड 3 टीममेट लगातार बिखरे हुए 5 टीममेट से बेहतर प्रदर्शन करते हैं
  • एजेंट टीम reliability tips

    • loop guardrails + reflection step: सभी टीममेट्स के लिए MAX_ITERATIONS=8 की upper limit सेट करें; हर retry से पहले यह reflection prompt अनिवार्य करें — "क्या विफल हुआ? कौन-सा ठोस बदलाव सुधार ला सकता है? क्या वही approach दोहराई जा रही है?" → फँसे हुए agents की घटनाएँ काफी कम हो जाती हैं
    • dedicated @reviewer teammate: Claude Opus 4.6 (read-only) को reviewer के रूप में सेट करें, जो सिर्फ lint·test·security scan tools का उपयोग करे और हर TaskCompleted event पर अपने-आप trigger हो; 3~4 builders पर 1 reviewer का अनुपात; Lead को हमेशा केवल reviewed code ही मिले

पैटर्न 3: स्केल पर orchestration

  • जब 5, 10, 20 या उससे अधिक agents को कई repos और features में मैनेज करना हो, तब dedicated orchestration tools की ज़रूरत होती है
  • Tier 1 — in-process subagents·teams: Claude Code subagents·agent teams; single terminal session, किसी अतिरिक्त tool की ज़रूरत नहीं; शुरुआत यहीं से करें
  • Tier 2 — local orchestrators: अलग-अलग worktrees में कई agents चलाना, dashboard·diff review·merge control बनाए रखना; जाने-पहचाने codebase में 3~10 agents के लिए सबसे उपयुक्त; Conductor, Vibe Kanban, Gastown, OpenClaw + Antfarm, Claude Squad, Antigravity, Cursor Background Agents
  • Tier 3 — cloud async agents: task assign करके laptop बंद कर देना और PR का इंतज़ार करना; cloud VM पर रन; Claude Code Web, GitHub Copilot Coding Agent, Jules by Google, Codex Web by OpenAI
  • 2026 तक ज़्यादातर developers तीनों tiers का उपयोग करेंगे: Tier 1 (interactive work), Tier 2 (parallel sprints), Tier 3 (overnight backlog processing)

टूल स्पॉटलाइट

  • Conductor by Melty Labs

    • Mac पर multi-agent orchestration शुरू करने का सबसे तेज़ तरीका; अलग-अलग git worktrees में कई Claude Code·Codex agents को parallel चलाता है
    • visual dashboard और diff-first review UI देता है; केवल API cost देनी होती है (मुफ़्त); केवल macOS (Apple Silicon·Intel)
    • जब एक ही repo में 3~8 features पर parallel काम करना हो और visual supervision चाहिए हो, तब सबसे उपयुक्त
  • Claude Code Web

    • claude.ai/code पर उपलब्ध; पूरी तरह browser-based, terminal की ज़रूरत नहीं; GitHub repo कनेक्ट करके task description दर्ज करें → Anthropic-managed cloud VM पर रन
    • mid-task steering, automatic PR generation, iOS app access का समर्थन
    • teams (terminal) एजेंट्स के साथ मिलकर काम करने का तरीका है, जबकि web (browser) delegate करके अलग हो जाने का तरीका है
  • GitHub Copilot Coding Agent

    • IDE के Copilot agent mode (synchronous·interactive) से अलग; GitHub का Copilot Coding Agent पूरी तरह asynchronous है
    • किसी भी GitHub issue को @copilot को assign करें या Agents panel से शुरू करें → GitHub Actions environment में draft PR बनता है
    • tag करने से पहले self-review loop चलाता है; Claude Code·Codex जैसे third-party agents भी उसी panel में उपलब्ध; Slack, Jira, Linear, Azure Boards से trigger किया जा सकता है
  • Jules by Google

    • Google का asynchronous cloud coding agent, Gemini-आधारित; GitHub repo कनेक्ट करें → task description → Jules plan बनाता है → approval के बाद cloud VM पर रन → पूरा reasoning process और terminal logs के साथ PR लौटाता है
    • audio changelog, mid-task interruption, और GitHub issues को सीधे pipe करने वाले Jules Tools CLI की सुविधा
    • repo के AGENTS.md को बिना अतिरिक्त configuration के अपने-आप पढ़ लेता है
  • OpenAI Codex Web

    • हर task एक स्वतंत्र sandbox container में चलता है, जिसमें GitHub repo पहले से loaded होता है
    • Web, CLI (open source), macOS app, IDE extensions, और GitHub integration को ChatGPT account से जोड़ने वाला surface ecosystem मौजूद है
    • Verifiable Evidence feature: हर task के लिए terminal logs और test output के citations लौटाता है, जिससे execution history का audit किया जा सके
  • Cursor Cloud Agents + Glass

    • web, desktop app, Slack, Linear, GitHub, API, PWA (cursor.com/agents install) से agents शुरू किए जा सकते हैं
    • Glass: Cursor का नया interface, जो agent management को primary screen बनाता है, और पुराने editor को ज़रूरत पड़ने पर उपयोग होने वाले सहायक tool में बदल देता है
    • यह पूरे ecosystem में उस पैटर्न को दिखाता है जहाँ control plane मुख्य अनुभव बन जाता है और editor उसके नीचे एक वाद्य की तरह रह जाता है
  • Vibe Kanban

    • "doomscrolling gap" (agent के काम के दौरान 2~5 मिनट का खाली समय) को हल करता है; task cards बनाकर उन्हें "In Progress" में drag करते ही उनके अपने worktree·branch बन जाते हैं
    • board के अंदर diff review और चल रहे agents को feedback भेजा जा सकता है; Claude Code, Codex, Gemini CLI, Amp, Cursor Agent CLI आदि का समर्थन; cross-platform (Mac, Windows, Linux), मुफ़्त, BYOK

स्केल बढ़ाने के लिए टिप्स

  • मल्टी-मॉडल रूटिंग

    • हर task के लिए सबसे महंगा model ज़रूरी नहीं है; role-based routing के लिए MODEL_ROUTING.md फ़ाइल बनाएं:
      • प्लान·आर्किटेक्चर → सस्ते Gemini/Claude/OpenAI models
      • इम्प्लीमेंटेशन → Sonnet, Opus या Codex
      • रिव्यू → डेडिकेटेड security model
  • worktree lifecycle scripts

    • तीन shell aliases से दोहराए जाने वाले काम ऑटोमेट करें:
      • agent-spin <feature>: worktree + branch बनाएं + agent शुरू करें
      • agent-merge <feature>: rebase + review + PR बनाएं
      • agent-clean: पूरी हो चुकी worktrees हटाएं
    • लगभग 12 lines की bash; Conductor इसे visually संभालता है
  • केवल इंसानों द्वारा लिखी गई AGENTS.md की अनुमति दें

    • ETH Zurich के Gloaguen et al. के शोध में पाया गया कि LLM द्वारा बनाई गई AGENTS.md फ़ाइलों से कोई लाभ नहीं मिलता, बल्कि औसतन ~3% success rate गिरती है और inference cost 20% से ज़्यादा बढ़ती है
    • डेवलपर द्वारा लिखी गई context files ~4% performance improvement देती हैं
    • agent को AGENTS.md में सीधे लिखने की कभी अनुमति न दें; lead को हर line approve करनी चाहिए
    • इसे साफ़ sections के साथ संक्षिप्त रखें: STYLE, GOTCHAS, ARCH_DECISIONS, TEST_STRATEGY

quality gates: भरोसा करें, लेकिन verify करें

  • तीन quality gates

    • plan approval: टीम member coding शुरू करने से पहले plan लिखे → lead review करे·approve या reject करे → फिर implementation; खराब plan को ठीक करना खराब code को ठीक करने से बहुत सस्ता है
    • hooks: lifecycle events पर automated checks; TeammateIdle hook यह देखता है कि agent काम रोकने से पहले सभी tests पास हों; TaskCompleted hook completion mark करने से पहले lint·tests चलाता है; hook fail होने पर agent pass होने तक काम जारी रखता है
    • AGENTS.md के ज़रिए compound learning: खोजे गए patterns·सावधानियाँ·style preferences को capture करता है; सभी agents session शुरू होने पर इसे पढ़ते हैं और हर session में इसमें जोड़ होता है
  • bottleneck verification की तरफ़ शिफ्ट होता है

    • agents प्रभावशाली output हैरान कर देने वाली गति से बना सकते हैं; मुश्किल हिस्सा यह भरोसा करना है कि वह output सही भी है
    • change से पहले pass हो रहे tests यह guarantee नहीं देते कि change से आने वाले regressions पकड़ लिए जाएंगे
    • agents ऐसे tests लिख सकते हैं जो technically valid हों, लेकिन महत्वपूर्ण cases छूट जाएँ
    • context window limits की वजह से बड़े codebases पर काम कर रहे agents अपने current view के बाहर की अहम constraints मिस कर सकते हैं
    • जो flaky environment एक single developer के लिए सिर्फ़ झुंझलाने वाला edge case है, वही तब systemic blocker बन जाता है जब 40 agents एक साथ उसी flaky test से टकराते हैं
    • जब तक verification infrastructure generation capability की बराबरी नहीं कर लेता, human review कोई optional overhead नहीं बल्कि safety system है

Ralph Loop और self-improving agents

  • Ralph Loop pattern

    • Geoffrey Huntley और Ryan Carson ने इसे लोकप्रिय बनाया; "सोते समय shipping" के पीछे यही pattern है; Carson का standalone tool ralph (snarktank/ralph) core loop को implement करता है, और Antfarm project OpenClaw के ऊपर multi-agent orchestration जोड़ता है
    • 5-step cycle: Pick (tasks.json से अगला task चुनना) → Implement (changes करना) → Validate (tests·types·lints चलाना) → Commit (checks pass होने पर commit और task status update) → Reset (agent context reset करके अगले task पर जाना)
    • मुख्य insight: हर iteration पर reset करने से confusion जमा नहीं होता; छोटे और clearly scoped tasks एक बहुत बड़े prompt की तुलना में कम hallucination और ज़्यादा साफ़ code देते हैं
    • safeguards: auto-retry के लिए errors को feedback की तरह दें, लेकिन 3 से ज़्यादा deadlock होने पर stop करें और reassign करें; हमेशा feature branch में काम करें; iteration·time·token limits सेट करें; agent PR बनाए → merge से पहले human review
    • context resets के बीच 4 memory channels बनाए रखें: git commit history, progress logs, task state file (tasks.json), और long-term semantic memory के रूप में AGENTS.md
  • समय के साथ agents को और स्मार्ट बनाना

    • REFLECTION.md के ज़रिए self-reflection: हर task के बाद यह लिखना अनिवार्य करें कि "क्या surprising था, AGENTS.md में जोड़ने लायक एक pattern, prompt में एक improvement"; lead review करे और approved learnings merge करे
    • token budget और termination criteria: per-agent limits सेट करें (उदा. frontend 180k tokens, backend 280k tokens); budget के 85% पर auto-pause और lead alert; same error पर 3 से ज़्यादा deadlock होने पर stop करें और नए agent को reassign करें
    • Beads / persistent memory: Gastown का "beads" pattern — हर decision और outcome का immutable, git-based record जिसमें पूरा provenance हो; agents task graph और SQL-addressable data plane के ज़रिए पुराने beads query करते हैं; यह simple vector-based RAG नहीं बल्कि structured, queryable institutional memory है

यह सब चलाने वाला अनुशासन

  • human bottleneck bug नहीं, feature था

    • जब इंसानी गति से code लिखा जाता है, तो दर्द जल्दी महसूस होता है; test failures, code review comments, duplication की खोज — दर्द तुरंत मिलता है, इसलिए चलते-चलते सुधार हो जाता है
    • orchestrated agents की सेना में ऐसा कोई natural bottleneck नहीं होता; छोटी गलतियाँ (code smell, duplication, unnecessary abstraction) इतनी तेज़ी से compound होती हैं कि उन्हें पकड़ पाना मुश्किल हो जाता है
    • आप loop से बाहर हो जाते हैं, इसलिए दर्द तब तक महसूस नहीं होता जब तक architecture नई features की अनुमति देना बंद न कर दे
    • इसीलिए हर quality gate (plan approval, hooks, token budgets, human review) मौजूद है: इनके बिना agent coding आपको खुद ही dead end में पहुँचा देगी
  • tasks delegate करें, judgment अपने पास रखें

    • जो agents को देना चाहिए: clearly scoped tasks जिनके पास clear pass/fail criteria हों, boilerplate, migrations, test scaffolding, और ऐसे approaches की exploration जिनको खुद आज़माने का आपके पास समय नहीं है
    • जो अपने पास रखना चाहिए: architecture और API design (agents training data से बहुत सी खराब architectures सीखते हैं और enterprise patterns को startup पर जस का तस लागू कर सकते हैं), क्या नहीं बनाना है यह तय करना (No कहना agents की क्षमता नहीं है), और पूरे system context के साथ agent output की review
    • अगर आप अपने system की समझ खो देते हैं, तो आप उसे ठीक करने, बढ़ाने और malfunction detect करने की क्षमता भी खो देते हैं
  • spec ही leverage है

    • जब आप 50 agents को parallel में orchestrate करते हैं, तो अस्पष्ट सोच सिर्फ़ गति कम नहीं करती बल्कि दर्जनों parallel executions में amplify हो जाती है
    • साधारण output और बेहतरीन output के बीच का अंतर लगभग पूरी तरह spec की quality पर निर्भर करता है
    • अस्पष्ट specs पूरी fleet में errors amplify करती हैं; स्पष्ट architecture·integration boundaries·edge cases·invariants वाली precise specs पूरी system में precise implementation amplify करती हैं
    • code टाइप करने का mechanical काम automate हो रहा है; system को समझने का cognitive काम autonomous workers की पूरी fleet में amplify होता है

factory model

  • अब बात सिर्फ़ code लिखने की नहीं रही, बल्कि software बनाने वाली factory खड़ी करने की है
  • 6-step production line: Plan (acceptance criteria के साथ spec लिखना) → Spawn (team बनाना और agents assign करना) → Monitor (हर 5–10 मिनट में progress check करना·blockers हटाना, hover नहीं करना) → Verify (tests चलाना·code review; bottleneck verification है) → Integrate (branches merge करना·conflicts resolve करना) → Retro (नए patterns के साथ AGENTS.md update करना; compound learning)
  • व्यावहारिक टिप्स:
    • WIP limits सेट करें: जितना आप अर्थपूर्ण ढंग से review कर सकते हैं उससे ज़्यादा agents न चलाएँ; 3–5 सबसे अच्छा sweet spot है
    • termination criteria define करें: same error पर 3 से ज़्यादा deadlock हो तो stop करें और reassign करें
    • async check-ins: हर 5–10 मिनट में progress देखें; agents को autonomously काम करने दें
    • एक फ़ाइल, एक owner: दो agents को एक ही फ़ाइल edit न करने दें; conflicts गति को खत्म कर देते हैं

आज से शुरू करने के लिए 5 patterns

  1. सब-एजेंट में विभाजन: Task टूल से विशेष brief और file ownership वाले focused child agent बनाएं; किसी setup की ज़रूरत नहीं; आज ही शुरू करें
  2. एजेंट टीम के साथ parallelism: CLAUDE_CODE_EXPERIMENTAL_AGENT_TEAMS=1 सक्षम करें; एक lead + 3 team member बनाएं; shared task list से coordination करें
  3. Git worktree से isolation: हर एजेंट को उसकी अपनी worktree दें; merge conflict नहीं; Conductor इसे अपने आप संभालता है
  4. भरोसे के लिए quality gate: जोखिम भरे बदलावों पर plan approval ज़रूरी करें; task पूरा होने पर test चलाने वाले hooks जोड़ें; verification के बिना एजेंट output पर भरोसा न करें
  5. AGENTS.md से compound learning: pattern, सावधानियाँ, और style preference को document करें; हर session इसे पढ़े और update करे; knowledge compounded होकर बढ़ती है

अभी कोई टिप्पणी नहीं है.

अभी कोई टिप्पणी नहीं है.