Google Research टीम के प्रकाशित पेपर ("Prompt Repetition Improves Non-Reasoning LLMs") में एक बेहद सरल लेकिन शक्तिशाली तकनीक सामने आई है:
एक ही प्रॉम्प्ट को ज्यों-का-त्यों दो बार इनपुट करने पर ज़्यादातर आधुनिक LLMs (Gemini, GPT-4o, Claude, DeepSeek आदि) में सटीकता काफी बढ़ जाती है।
मुख्य बिंदु:
- LLM की autoregressive संरचना के कारण प्रॉम्प्ट की जानकारी के क्रम और उसे सिर्फ एक बार देखने पर निर्भरता रहती है → महत्वपूर्ण जानकारी पीछे हो या ऐसे कार्य हों जिनमें संदर्भ की ज़रूरत हो, तो मॉडल अक्सर गलती करता है।
- प्रॉम्प्ट को दो बार दोहराकर इनपुट करने पर → prefill (इनपुट विश्लेषण) चरण में वही सामग्री दो बार प्रोसेस होती है, जिससे मॉडल की आंतरिक representation अधिक सटीक बनती है और संदर्भ/स्मृति संबंधी त्रुटियाँ काफी कम हो जाती हैं।
- generation चरण (आउटपुट टोकन बनाना) पर इसका लगभग कोई असर नहीं पड़ता → इसलिए inference time और output length में लगभग कोई बढ़ोतरी नहीं होती (Claude जैसे बहुत लंबे context वाले मामलों में अपवाद संभव)।
- प्रयोगों के नतीजे: 7 मॉडलों × कई benchmarks में 70 संयोजनों में से 47 में सुधार दिखा, और किसी एक में भी प्रदर्शन में बड़ी गिरावट नहीं आई।
- एक अत्यधिक उदाहरण: “50 नामों की सूची में 25वाँ नाम क्या है?” कार्य
→ Gemini 2.0 Flash Lite की मूल सटीकता 21% → दोहराने के बाद 97% (लगभग पूर्ण) - Chain-of-Thought जैसे जटिल reasoning कार्यों में प्रभाव कम है (जहाँ मॉडल पहले से ही संदर्भ को अच्छी तरह संभालता है)।
- कमज़ोरी: अगर प्रॉम्प्ट पहले से बहुत लंबा हो, तो prefill समय बढ़ सकता है, या तीन बार से अधिक दोहराने पर token limit की समस्या आ सकती है।
निष्कर्ष
यह सटीकता बढ़ाने की एक हैरान करने वाली हद तक सरल और लगभग बिना अतिरिक्त लागत वाली ट्रिक है, जो “Think step by step” जितनी मशहूर हो सकती है।
खासकर सरल संदर्भ, सूची-प्रसंस्करण और structured data से जुड़े सवालों में यह तुरंत उपयोग की जा सकने वाली व्यावहारिक टिप के रूप में ध्यान खींच रही है।
अभी कोई टिप्पणी नहीं है.