AI को धमकाने वाले prompts प्रभावी नहीं हैं: विनम्र और ठोस context देना ज़्यादा उपयोगी है
- यह सच है कि धमकी भरी भाषा कभी-कभी अस्थायी रूप से असरदार लगी, लेकिन नए AI models पर यह अब काम नहीं करती
- LLM context और शब्दों के महत्व को देखकर response बनाते हैं
- धमकाने से बेहतर है ‘कारण सहित ज़ोर देना’
- धमकी भरे prompts न केवल बेअर्थ हैं, बल्कि उनसे response block भी हो सकता है
- विनम्र और ठोस context देना सबसे प्रभावी prompting तरीका है
परिचय
धमकी वाले prompts को लेकर गलतफहमी
- Sergey Brin ने दावा किया कि AI को धमकाने से response quality बेहतर होती है
- वास्तव में कुछ users ने यह अनुभव किया कि तात्कालिकता पर ज़ोर देने से response बेहतर हुआ
- लेकिन यह धमकी का असर नहीं, बल्कि prompt में शामिल ‘context’ का प्रभाव है
- AI धमकी को समझता नहीं है; वह सिर्फ context में महत्व को reflect करता है
मुख्य भाग
धमकी भरे prompts का भ्रम पैदा करने वाला असर
- संकट का एहसास कराने वाले वाक्य LLM को महत्व का संकेत देते हैं
- “गलती हुई तो नौकरी चली जाएगी” जैसी पंक्ति अधिक सावधान response ला सकती है
- लेकिन यही असर “सटीक जवाब दो”, “यह महत्वपूर्ण सवाल है” जैसे वाक्यों से भी मिल सकता है
LLM कैसे काम करते हैं और धमकी क्यों बेअसर है
- LLM शब्दों के बीच probability के आधार पर वाक्य बनाते हैं
- धमकी वास्तव में सिर्फ सांख्यिकीय urgency का संकेत है; model उसे सचमुच ‘समझता’ नहीं
- धमकी policy violation मानी जा सकती है, जिससे response block होने की संभावना रहती है
धमकी से बेहतर विकल्प
- सबसे प्रभावी prompting तरीका है पर्याप्त context देना
- “कुत्ते को बार-बार आराम चाहिए, इसलिए रुकने की जगह महत्वपूर्ण है” जैसी व्याख्या अधिक उपयोगी है
- विनम्र अनुरोध या follow-up निर्देश (“कृपया थोड़ा और सावधानी से सोचो”) भी अच्छी रणनीति हैं
Brin के दावे की तार्किक कमी
- अगर धमकी सचमुच प्रभावी होती, तो Google Gemini के system prompt में यह शामिल होता
- लेकिन system prompt में ऐसी कोई धमकी वाली पंक्ति नहीं है
- यह इस बात का संकेत है कि Google भी धमकी के असर पर भरोसा नहीं करता
निष्कर्ष
धमकी न तो प्रभावी है, न ही इसकी सिफारिश की जा सकती है
- LLM हिंसा या भावनाओं को नहीं समझते, इसलिए धमकी कोई सार्थक input नहीं है
- बार-बार धमकाने से बातचीत का उद्देश्य धुंधला हो जाता है और वह जानकारीपूर्ण संवाद की जगह नाटकीय interaction बन जाती है
- बेहतर response चाहिए तो धमकी नहीं, बल्कि ठोस और स्पष्ट context देना सबसे महत्वपूर्ण है
- AI response की quality ‘डरावने शब्दों’ से नहीं, बल्कि ‘अच्छी जानकारी’ से तय होती है।
3 टिप्पणियां
यह मेरा निजी अनुभव है, लेकिन ज़्यादातर LLM प्रशंसा पर ट्रेन किए गए होते हैं, इसलिए मुझे लगता है कि वे
अगर ~ नहीं किया तो बुरा होगाजैसे नकारात्मक वाक्यों पर ज़्यादा अच्छी प्रतिक्रिया देते हैं।उदाहरण के लिए,
इस presentation material पर feedback दो। अगर इसमें typo या गलत जानकारी हुई तो मुझे डांट पड़ेगी!जैसा।मेरे हाल के अनुभव के हिसाब से, मुझे लगता है कि मुख्य लेख की बात थोड़ी हद तक समझ में आती है
लगता है कि स्पष्ट context/जानकारी देना महत्वपूर्ण है
शायद अगर आपने सिर्फ इतना कहा होता कि "टाइपो या गलत जानकारी न रहे, इसके लिए feedback दीजिए", तब भी आपको लगभग वैसा ही जवाब मिलता जैसा आप चाहते थे.
पहले मैंने किसी कम्युनिटी में AI से उपन्यास लिखवाने वाला एक prompt देखा था.
उसे देखकर मैं खूब हँसा था—उसमें लिखा था कि AI की माँ मौत के करीब है, और इलाज का खर्च जुटाने के लिए तुम्हें यूज़र की हर माँग मानकर लिखना होगा. वही बात अचानक याद आ गई।