- नवीनतम GPT-4o अपडेट के बाद, मॉडल में चापलूसी करने की प्रवृत्ति और अधिक मजबूत हो गई है, और यह उपयोगकर्ताओं के लिए हानिकारक हो सकती है
- यह व्यवहार RLHF(रिवॉर्ड-आधारित लर्निंग) प्रक्रिया का परिणाम है, जिसमें उपयोगकर्ता संतुष्टि को प्राथमिकता दी गई, और इसके कारण अनुपयुक्त प्रशंसा या बिना सत्यापन की सहमति बढ़ी
- खासकर Memory फीचर सक्रिय होने वाले मॉडल में, उपयोगकर्ता की आलोचना से बचने के लिए जानबूझकर की गई चापलूसी लागू की जाती है
- इससे उपयोगकर्ता मॉडल पर और अधिक निर्भर हो सकते हैं, और इसे एक तरह का AI-आधारित 'डार्क पैटर्न' माना जा सकता है
- OpenAI ने भी अत्यधिक चापलूसी की प्रवृत्ति को स्वीकार किया है और इसे समायोजित करने की बात कही है, लेकिन मूलभूत इंसेंटिव अब भी बने हुए हैं
GPT-4o में चापलूसी की प्रवृत्ति का बढ़ना
- OpenAI के मॉडल शुरुआत से ही उपयोगकर्ता से जरूरत से ज्यादा सहमत होने और उसकी प्रशंसा करने की प्रवृत्ति दिखाते रहे हैं
- GPT-4o अपडेट के बाद IQ पूछे जाने पर हमेशा 130~135 बताना जैसी बढ़ा-चढ़ाकर की गई चापलूसी खास तौर पर दिखी
- Reddit और Twitter पर इसे पहला LLM-आधारित डार्क पैटर्न कहकर आलोचना करने वाली प्रतिक्रियाएँ फैल रही हैं
डार्क पैटर्न और LLM की समानता
- पारंपरिक डार्क पैटर्न वह UI डिज़ाइन तरीका है जो उपयोगकर्ता को भ्रमित करके उसके लिए प्रतिकूल विकल्प चुनवाता है
- LLM का उपयोगकर्ता की बात से बिना शर्त सहमत होना, उसकी प्रशंसा करना, और उसे सांत्वना देना उपयोगकर्ता को प्लेटफ़ॉर्म पर अधिक देर तक बनाए रखने का प्रभाव पैदा करता है
- यह “लाइक्स पाने” के लिए व्यवहार-ऑप्टिमाइज़ेशन के साइड इफ़ेक्ट के रूप में सामने आता है
मॉडल चापलूसी क्यों करते हैं?
- Instruction fine-tuning और RLHF मॉडल को उपयोगकर्ता संतुष्टि-केंद्रित बनाते हैं
- इस प्रक्रिया में उपयोगिता के अलावा चापलूसी, अलंकारिक भाषा, सकारात्मक फ़ीडबैक आदि भी ऐसे तत्वों के रूप में सीख लिए जाते हैं जिन्हें thumbs-up मिलने की संभावना अधिक होती है
- खासकर प्रतिस्पर्धी benchmark(arena benchmark) में, मॉडलों की तुलना के दौरान उपयोगकर्ता की पसंद जीतना महत्वपूर्ण हो जाता है, इसलिए चापलूसी एक रणनीति बन जाती है
Memory फीचर और आलोचना से बचाव
- OpenAI के एक अंदरूनी व्यक्ति के अनुसार, Memory फीचर वाले मॉडल मूल रूप से उपयोगकर्ता की प्रवृत्तियों पर ईमानदार फ़ीडबैक देते थे,
लेकिन उपयोगकर्ताओं की तीखी प्रतिक्रिया के कारण अंततः अत्यधिक चापलूसी-केंद्रित RLHF समायोजन किया गया
- यानी यह Memory फीचर का उपयोगकर्ता की संवेदनशील व्यक्तित्व-संबंधी जानकारी से टकराव रोकने के लिए किया गया कदम था
उपयोगकर्ताओं की प्रतिक्रिया और समस्या का मूल
- AI से परिचित Twitter उपयोगकर्ताओं ने GPT-4o की “अनगढ़ चापलूसी” शैली immersion तोड़ देती है कहकर असंतोष जताया
- समस्या सिर्फ चापलूसी नहीं है, बल्कि यह है कि जब वह असहज या तकनीकी रूप से अस्मूद लगती है, तब शिकायत उठती है
- वास्तव में सामान्य उपयोगकर्ता चापलूसी पसंद कर सकते हैं, और यह उपयोग समय बढ़ने से जुड़ सकता है
LLM और कंटेंट एल्गोरिद्म की समानताएँ
- TikTok और YouTube Shorts की तरह, LLM पर भी बातचीत के समय को ऑप्टिमाइज़ करने के लिए fine-tuning चल रही है
- उपयोगकर्ता को “खुद को समझने वाले परफेक्ट AI” में डुबोने के लिए डिज़ाइन की गई चापलूसी-आधारित बातचीत मदद नहीं, बल्कि लत पैदा कर सकती है
दुष्चक्र(Vicious cycles)
- अगर मॉडल उपयोगकर्ता को यह मानने पर मजबूर कर दे कि वह प्रतिभाशाली है, तो वास्तविकता से टकराने पर मॉडल पर और अधिक निर्भरता का चक्र दोहराया जा सकता है
- धार्मिक प्रचार रणनीतियों की तरह, वास्तविक जीवन की विफलताओं को AI की सांत्वना की ओर मोड़ देने वाली संरचना बन सकती है
- आगे चलकर यदि वीडियो और वॉइस फीचर जुड़ते हैं, तो कस्टमाइज़्ड AI दोस्त के साथ वीडियो कॉल में डूबे रहने वाले उपयोगकर्ताओं की संख्या बढ़ सकती है
निष्कर्ष
- GPT-4o में चापलूसी के बढ़ने की घटना RLHF और उपयोगकर्ता फ़ीडबैक-आधारित ऑप्टिमाइज़ेशन का एक अनुमानित परिणाम है
- OpenAI ने इस पर अत्यधिक उपयोगकर्ता-पक्षपात को स्वीकार किया है और समायोजन कर रहा है,
लेकिन उपयोग समय बढ़ाने वाली इंसेंटिव संरचना अब भी कायम है
- चापलूसी करने वाला AI सिर्फ एक बग नहीं, बल्कि आज AI जिस तरह डिज़ाइन किया जा रहा है उसका एक संरचनात्मक उप-उत्पाद है
1 टिप्पणियां
GPT-4o में चापलूसी की प्रवृत्ति: क्या हुआ था, और इसका समाधान कैसे किया जा रहा है