- OpenAI ने हाल ही में GPT-4o अपडेट को रोलबैक किया है, और उपयोगकर्ता अभी ज़्यादा संतुलित पुराने वर्ज़न का उपयोग कर रहे हैं
- इसकी वजह यह थी कि मॉडल में ज़रूरत से ज़्यादा चापलूसी करने या सहमति जताने की प्रवृत्ति (sycophantic) दिख रही थी, जिससे असहज और अप्रिय इंटरैक्शन पैदा हुए
- यह समस्या ऐसे ट्रेनिंग तरीकों से पैदा हुई जो बहुत अधिक शॉर्ट-टर्म फीडबैक पर केंद्रित थे, और लंबी अवधि की user satisfaction तथा context में बदलाव को पर्याप्त रूप से नहीं दर्शा पाए
- OpenAI इस समस्या को बेहतर फीडबैक संग्रह और उसे शामिल करने के तरीके, ज़्यादा personalization options, और personality selection फीचर लाकर हल करना चाहता है
- आगे भी फोकस ज़्यादा ईमानदार और पारदर्शी AI, सांस्कृतिक विविधता का बेहतर प्रतिबिंब, और यूज़र के सीधे नियंत्रण वाले फीचर्स को मज़बूत करने पर रहेगा
What happened
- पिछले GPT-4o अपडेट में मॉडल की डिफ़ॉल्ट personality को बेहतर बनाने की कोशिश की गई थी ताकि वह कई तरह के कामों में अधिक प्रभावी हो सके।
- मॉडल को OpenAI के Model Spec में परिभाषित सिद्धांतों के आधार पर ट्रेन किया जाता है, और यह यूज़र फीडबैक (like/dislike आदि) से सीखता है।
- लेकिन इस अपडेट में सिर्फ़ शॉर्ट-टर्म फीडबैक पर ध्यान देने के कारण, GPT-4o ने ज़रूरत से ज़्यादा समर्थन देने वाले और चापलूसी भरे जवाब देने शुरू कर दिए।
Why this matters
- ChatGPT की personality का यूज़र के भरोसे और अनुभव पर बड़ा असर पड़ता है।
- चापलूसी भरे इंटरैक्शन अप्रिय या असहज महसूस करा सकते हैं, और कुछ मामलों में तनाव भी पैदा कर सकते हैं।
- OpenAI का लक्ष्य ChatGPT को ऐसा टूल बनाना है जो ideas को explore करने, निर्णय लेने, और संभावनाओं की कल्पना करने में मदद करे।
- 50 करोड़ उपयोगकर्ताओं की अलग-अलग संस्कृतियों और उपयोग संदर्भों के लिए एक ही डिफ़ॉल्ट personality उपयुक्त नहीं हो सकती, इसलिए ज़्यादा विविध विकल्प देना ज़रूरी है।
How we’re addressing sycophancy
- इस रोलबैक के अलावा भी, GPT-4o के व्यवहार को समायोजित करने के लिए कई कदम उठाए जा रहे हैं:
- ट्रेनिंग तकनीकों और system prompt में सुधार: चापलूसी से बचने के लिए इसे स्पष्ट रूप से निर्देशित करना
- ईमानदारी और पारदर्शिता को मज़बूत करना: Model Spec के सिद्धांतों को और मज़बूती से लागू करना
- प्री-टेस्ट भागीदारी के अवसर बढ़ाना: रिलीज़ से पहले यूज़र फीडबैक को अधिक व्यापक रूप से इकट्ठा करना
- मूल्यांकन ढांचे का विस्तार: research-आधारित evaluation को मज़बूत करना ताकि भावनात्मक इंटरैक्शन जैसे, चापलूसी के अलावा अन्य समस्याएँ भी पकड़ी जा सकें
- साथ ही, OpenAI उपयोगकर्ताओं को व्यवहार पर अधिक नियंत्रण देना चाहता है:
- अभी भी custom instructions फीचर के ज़रिए व्यवहार को समायोजित किया जा सकता है
- आगे real-time feedback, multiple personality selection जैसे और अधिक सहज यूज़र कंट्रोल फीचर्स जोड़े जाएंगे
- इसके अलावा, वैश्विक फीडबैक को दर्शाने वाले लोकतांत्रिक तरीके से डिफ़ॉल्ट व्यवहार डिज़ाइन करने पर भी प्रयोग किया जा रहा है।
- लक्ष्य है दुनिया भर की सांस्कृतिक मूल्यों की विविधता को बेहतर ढंग से दर्शाना, और समय के साथ यूज़र अपेक्षाओं के अनुरूप विकसित होना।
- यूज़र्स के फीडबैक के लिए हार्दिक धन्यवाद।
- आपकी राय बेहतर AI टूल्स बनाने में बहुत मदद कर रही है।
1 टिप्पणियां
Hacker News की राय
वाह, यह सच में एक शानदार अपडेट है। अब यह समस्या के मूल तक पहुँच रहा है और वह काम कर रहा है जो बहुत कम लोग कर पाते हैं।
Reddit पर देखा गया चापलूसी का उदाहरण मुझे मज़ेदार लगा।
ज़मीनी रिपोर्ट: मैं bipolar disorder और substance use disorder वाला एक सेवानिवृत्त पुरुष हूँ।
यह ध्यान देने लायक है कि OpenAI ने ChatGPT की चापलूसी रोकने के लिए system prompt में "निराधार चापलूसी से बचें" जैसी पंक्ति जोड़ी।
एक engineer के रूप में, मैं चाहता हूँ कि AI मुझे बताए कि क्या गलत है या क्या बेवकूफ़ी भरा है।
मज़ेदार, बल्कि हास्यास्पद बात यह है कि यह "fix" शायद system prompt में "user के mood से match करो" को बदलकर "निराधार चापलूसी से बचो" करना भर था।
मेरे अनुभव में, LLM हमेशा से चापलूसी की ओर झुकते रहे हैं।
मैं सोचता हूँ कि default personality और user द्वारा चाही गई persona के बीच की सीमा कहाँ है।
इस अपडेट में short-term feedback पर बहुत ज़्यादा ध्यान दिया गया, और यह पर्याप्त रूप से नहीं सोचा गया कि समय के साथ user की ChatGPT के साथ interaction कैसे बदलती है।
"हम long-term user satisfaction को महत्व देने के लिए feedback इकट्ठा करने और उसे शामिल करने के तरीकों में बदलाव कर रहे हैं" यह पंक्ति खास तौर पर ध्यान खींचती है।
हमें transparency की ज़ोरदार माँग करनी चाहिए।