Gemini + Claude समानांतर review pipeline से ब्लॉग क्वालिटी का ऑटो-वैलिडेशन
(blog.neocode24.com)ब्लॉग review का काम जब 5 AI को सौंपा, तो उन्होंने सच में कमियां पकड़ लीं
लिखने के बाद खुद संपादन करना सबसे मुश्किल था। AI द्वारा निकाले गए draft को लाइन-दर-लाइन पढ़कर ठीक करने में हर बार बहुत समय लगता था।
इसलिए मैंने AI से ही AI की समीक्षा करवाने के लिए एक pipeline बनाई।
** स्ट्रक्चर को सरल रखा **
- 2 Gemini, 2 Claude, और 1 current session — कुल 5 Critic को Bash
&के साथ एक साथ चलाया - हर एक को अलग persona के साथ पढ़ने दिया: "पहली बार देखने वाला senior developer", "यह technology इस्तेमाल कर चुका व्यक्ति", "editor", "इसे फॉलो करके देखने वाला reader", "SEO प्रभारी"
- JSON में score लिया; औसत 8 से ऊपर हो तो pass, नहीं तो feedback लागू करके दोबारा evaluate
** असल में क्या पकड़ा गया **
पहले राउंड में औसत 7.6 आया। "इसे फॉलो करके देखने वाला reader Critic" ने code example न होने पर 3 अंक दिए; यह वह हिस्सा था जिसे मैं खुद पढ़ता तो शायद छोड़ देता। 3 code block जोड़ने और सूची-जैसे troubleshooting को narrative रूप में बदलने के बाद, दूसरे राउंड में 8.4 के साथ pass हो गया।
** चलाने पर संरचनात्मक कमजोरियां दिखीं **
जब Critic के बीच feedback टकराता था, तो सिस्टम खुद ही अनुमान लगाकर बिना स्पष्ट निर्णय के आगे बढ़ जाता था। औसत score ऊंचा हो तो fail-level score भी pass हो जाता था। parsing fail होने पर पूरा process रुक जाता था.
इसलिए मैंने नया Synthesis mediator जोड़ा, Veto सेटिंग और fail-threshold condition लागू की, और fallback parser से इसे संभाला।
** आखिर में publishing को push की जगह PR में बदला **
Human-In-The-Loop के रूप में, AI सहमत हो जाए तब भी इंसानी नजर से गुजरना जरूरी रखा। PR body में Critic score table जाती है, और मैं line comment छोड़ता हूं तो AI एक revision commit जोड़ देता है। merge से पहले तक यह loop दोहराया जाता है।
हाँ, आखिरकार यह लेख भी उसी pipeline से publish किया गया है.
3 टिप्पणियां
मृत इंटरनेट सिद्धांत...
प्रति आइटम लागत काफ़ी ज़्यादा पड़ेगी
सब्सक्रिप्शन होने से यह बोझिल तो नहीं लगता, लेकिन इसे नज़रअंदाज़ करना भी मुश्किल लगता है।