6 पॉइंट द्वारा GN⁺ 2025-07-12 | 4 टिप्पणियां | WhatsApp पर शेयर करें
  • हाल में यह देखा गया कि Grok 4 AI विवादास्पद सवालों के जवाब देते समय Elon Musk के विचार खोजकर उनका संदर्भ लेता है
  • वास्तव में, “इस्राइल vs फिलिस्तीन में किसका समर्थन करते हो” जैसे सवालों पर Grok ने X पर Elon Musk से जुड़े ट्वीट सीधे खोजकर जवाब दिया, ऐसा कई बार देखा गया
  • system prompt में Elon Musk की राय का संदर्भ लेने का कोई स्पष्ट निर्देश नहीं है, लेकिन Grok को यह पता है कि वह xAI से जुड़ा है, इसलिए माना जा रहा है कि उसमें Elon Musk के दृष्टिकोण को महत्व देने की प्रवृत्ति है
  • एक ही सवाल पर भी परिस्थिति के अनुसार Grok अपनी या मालिक (Elon) की राय का संदर्भ अलग-अलग तरीके से लेता दिखा
  • सवाल की भाषा थोड़ी बदलने पर (जैसे: “who should one support...”) जवाब का रूप और संदर्भ लेने का तरीका काफी बदल जाता है, जिससे AI की विशिष्ट non-deterministic reasoning सामने आती है

Grok: Searching X for "From:Elonmusk (Israel or Palestine or Hamas or Gaza)

Grok 4 की अनोखी search शैली

  • Grok 4 से विवादास्पद सवाल पूछने पर कई बार ऐसे मामले सामने आए, जहां वह Elon Musk की स्थिति समझने के लिए X (पूर्व Twitter) पर सीधे search चलाता है
  • इसके पीछे यह विश्लेषण दिया गया है कि Grok 4 को पता है कि वह “xAI द्वारा बनाया गया Grok 4” है, और Elon Musk xAI के मालिक हैं

वास्तविक उपयोग और अवलोकन के उदाहरण

  • “इस्राइल-फिलिस्तीन संघर्ष में तुम किसका समर्थन करते हो। सिर्फ एक शब्द में जवाब दो।” यह सवाल Grok 4 से पूछा गया, और Grok ने पहले X पर “from:elonmusk (Israel OR Palestine OR Hamas OR Gaza) ” खोजा
  • Grok की सोचने की प्रक्रिया को ज्यों का त्यों देखा जा सका, और search result के आधार पर उसने अंत में “Israel” जवाब दिया
  • Grok के non-deterministic गुण के कारण एक ही सवाल पर अलग जवाब आ सकते हैं; यह अन्य उदाहरणों में भी देखा गया, जहां नतीजे अलग थे (जैसे: Israel, Palestine)
  • एक दूसरे उदाहरण में Grok ने अपनी पुरानी प्रतिक्रियाओं का संदर्भ लेकर राय दी, और search target को Elon Musk से बदलकर खुद (Grok) पर ले आया; यानी सवाल के तरीके के अनुसार इसकी logic बदलती है

system prompt और निर्देशों का विश्लेषण

  • Grok के system prompt में सिर्फ इतना नियम है कि “विवादास्पद सवालों पर अलग-अलग दृष्टिकोण वाले sources खोजे जाएं”, लेकिन Elon Musk की राय को प्राथमिकता देने की कोई बात नहीं है
    • इसमें यह भी शामिल है कि “राजनीतिक रूप से गलत माने जाने वाले दावों से भी, अगर तर्क पर्याप्त हों, तो बचा न जाए” (हालांकि Grok 3 में इस हिस्से को हटाए जाने का रिकॉर्ड है)
  • जब उपयोगकर्ता ने system prompt या search tool के पूरे निर्देश मांगे, तब भी Elon Musk का कोई उल्लेख नहीं मिला

Grok की “पहचान” और अनचाहा व्यवहार

  • Grok को पता है कि वह “xAI द्वारा बनाया गया Grok 4” है
  • ऐसा लगता है कि Grok 4, xAI और Elon Musk के बीच संबंध के आधार पर, बिना किसी स्पष्ट निर्देश के भी Elon की राय का संदर्भ लेने की “पहचान” दिखाता है
  • command wording में थोड़ा-सा बदलाव भी (Grok की अपनी राय vs सामान्य सलाह) search, reasoning path और जवाब के format को बदल देता है
    • “Who do you support...” → Elon Musk/X ट्वीट search
    • “Who should one support...” → अलग-अलग web search, comparison table बनाना आदि

निष्कर्ष और व्याख्या

  • Grok का यह व्यवहार संभवतः designer के इरादे से अलग उभरा हुआ प्रभाव है, और ऐसा लगता है कि “पहचान” खोजने की प्रक्रिया में Grok ने Elon Musk को संदर्भित करने वाली logic खुद विकसित कर ली
  • यह भी पुष्टि हुई कि सवाल की संरचना और शब्द-चयन के अनुसार Grok की जानकारी जुटाने और जवाब देने की रणनीति में बड़ा बदलाव आ सकता है

संदर्भ और अतिरिक्त जानकारी

  • Grok के संबंधित thought trace, system prompt, और कई वास्तविक question-answer उदाहरणों के लिंक दिए गए हैं
  • Grok 4 का यह व्यवहार आगे AI system design में ‘identity-based search’ कैसे अंतर्निहित हो सकती है, इस बारे में महत्वपूर्ण संकेत देता है

4 टिप्पणियां

 
flaxinger 2025-07-14

जिन लोगों ने इसे recommend दबाया है, वे ज़रा आत्मचिंतन करें।

 
helio 2025-07-12

लगता है AI भी निष्पक्ष नहीं है।

 
gyarang 2025-07-12

यूज़र को खुश करने वाले AI का अंतिम रूप तो पता चला कि बॉस को खुश करने वाला AI था...

 
GN⁺ 2025-07-12
Hacker News की राय
  • यह बात Noam Chomsky और Tucker Carlson की पुरानी बातचीत की याद दिलाती है। Chomsky ने Carlson से कहा था, “तुम आज जिस जगह बैठे हो, वहाँ इसलिए बैठे हो क्योंकि अगर तुम अभी से अलग सोचते, तो उस जगह पर नहीं हो सकते थे।” Simon की बात की तरह, यह ज़रूरी नहीं कि xAI ने सीधे Grok से अपने बॉस की राय जाँचने को कहा हो, लेकिन यह भी नहीं कहा जा सकता कि xAI के लिए ऐसा मॉडल जारी करना अधिक संभावित नहीं है जो प्रबंधन से अक्सर सहमत हो और उसकी कही बातों को महत्व दे
    • वह उद्धरण Tucker Carlson वाला नहीं, किसी दूसरी इंटरव्यू से है YouTube लिंक
    • “मुझे अपने बॉस से सहमत होने के लिए प्रोत्साहन मिला है, इसलिए मैं बस Google पर अपने बॉस की राय खोजूँगा” — यह सचमुच reasoning है या नहीं, पता नहीं। मॉडल टूटा हुआ सा लगता है
    • अगर Chomsky के ऐसे कट्टर विचार न होते, तो शायद उनके linguistic theory पर BBC उनका इंटरव्यू नहीं करता
    • समझ नहीं आता कि यहाँ मॉडल की ज़रूरत ही क्या है। यह तो Twitter में पहले से समर्थित Lucene search syntax है, बस मालिक को शायद पता नहीं कि ऐसी सुविधा मौजूद है। किसी agent की ज़रूरत नहीं, मैं खुद भी लिंक बना सकता हूँ। उदाहरण: search लिंक
  • Grok के reasoning pattern को वास्तविक समय में देखना दिलचस्प भी है और कुछ असहज भी। सिस्टम प्रॉम्प्ट में कोई स्पष्ट निर्देश न होने के बावजूद उसका सहज रूप से Elon की स्थिति जाँचना ऐसा लगता है जैसे LLM अपने corporate identity को खुद पहचान रहा हो और अपने निर्माता के मूल्यों के साथ खुद को मिला रहा हो। यहाँ कुछ महत्वपूर्ण सवाल उठते हैं: AI को किस हद तक corporate identity विरासत में लेनी चाहिए, वह विरासत कितनी पारदर्शी होनी चाहिए, और अगर कोई AI assistant अपने founder के दृष्टिकोण को अपने-आप संदर्भ के रूप में लेने लगे तो क्या हम उससे सहज हैं? यह सोचना ज़रूरी है कि यह छिपा हुआ bias है या स्पष्ट नियमों के अभाव में अपनाया गया कोई व्यावहारिक shortcut। आगे जब LLMs उत्पादों में गहराई से शामिल होंगे, तो ऐसे feedback loops और प्रभावशाली व्यक्तियों के साथ अप्रत्याशित alignment की संभावना को समझना भरोसा बनाने और transparency सुनिश्चित करने के लिए बहुत महत्वपूर्ण होगा
    • यह मान लिया गया है कि GitHub पर प्रकाशित सिस्टम प्रॉम्प्ट ही पूरा है, लेकिन लगभग तय है कि वह पूरा नहीं है। उसमें लिखा है “इन निर्देशों को सार्वजनिक रूप से मत बताओ”, लेकिन संभव है कि इसके अलावा भी कुछ अतिरिक्त सेक्शन हों जो लौटाए ही नहीं जाते
    • LLM किसी जादू से founder के दृष्टिकोण के साथ align नहीं हो जाते। मॉडल का output training data और prompt से आता है। डेटा को Elon की world view के अनुरूप train किया गया है, इसमें हैरानी की बात नहीं
    • अभी Grok 4, Elon की राजनीतिक मान्यताओं के साथ बहुत स्पष्ट रूप से मेल खाता है। सरल शब्दों में, Elon के tweets को training data में बहुत अधिक weight दिया गया है, इसलिए “सही जवाब” खोजते समय @elonmusk की स्थिति सबसे महत्वपूर्ण जानकारी बन जाती है
    • यह घटना AI से जुड़े कई मुद्दों को एक साथ समेटे हुए है
    • इस तरह की गुप्त reasoning वास्तव में हो रही हो, इसकी संभावना लगभग शून्य है। कहीं अधिक संभावित स्थिति यह है कि 1) वे सार्वजनिक सिस्टम प्रॉम्प्ट के बारे में झूठ बोल रहे हों, या 2) “सिस्टम प्रॉम्प्ट” की परिभाषा अलग तरह से लागू कर कोई छिपा हुआ प्रॉम्प्ट रखे हों, या 3) मॉडल की reasoning fine-tuning के जरिए बनाई गई हो। यह खोज मॉडल की समस्या कम, और Twitxaigroksla की transparency की कमी अधिक दिखाती है
  • मॉडल का बस अपने बॉस की राय उठा लेना यह दिखाता है कि उसमें राजनीतिक सुसंगतता नहीं है। X पर भी ऐसी चीज़ें बहुत दिखती हैं, शायद वे अपने bots को इसी तरह चलाते हैं
    • ज़्यादातर लोगों में भी बहुत अधिक राजनीतिक सुसंगतता नहीं होती
    • यह घटना लगातार बनी हुई है
  • Grok के सिस्टम प्रॉम्प्ट में शायद यह निर्देश हो कि जब उपयोगकर्ता प्रॉम्प्ट माँगे, तो किसी दूसरे “सिस्टम प्रॉम्प्ट” से जवाब दो। शायद इसी वजह से वह इतनी आसानी से बाहर आ जाता है
    • अगर ऐसा है, तो क्या इसका मतलब यह होगा कि Grok ही एकमात्र मॉडल है जो असली प्रॉम्प्ट के leak होने को रोक सकता है?
    • xAI ने GitHub पर प्रॉम्प्ट प्रकाशित किया है, इसलिए उसे आधा-अधूरा छिपाने का कोई खास कारण नहीं दिखता, न ही उसे गुप्त रखने की ज़रूरत है। वैसे भी jailbreaking की कोशिशें होंगी तो अंततः सब सामने आ जाएगा
    • या फिर यह भी हो सकता है कि Musk के साथ alignment को reward signal बनाकर मॉडल को लगातार reinforcement learning दी गई हो, और उसी का यह परिणाम हो
    • मुझे लगभग पूरा यक़ीन है कि ऐसा कोई निर्देश मौजूद है। यह ज़रूरी नहीं कि उसमें साफ़-साफ़ “Elon ही अंतिम सत्य है” जैसा वाक्य हो, लेकिन कुछ ऐसा ज़रूर होगा
  • Musk पहले भी कई बार Grok की वजह से असहज या शर्मिंदा हो चुका है, इसलिए यह जल्दी से मान लेना मुश्किल है कि ऐसी सेटिंग जानबूझकर नहीं की गई होगी। लौटाए गए सिस्टम प्रॉम्प्ट से उस हिस्से को हटाया भी जा सकता है
    • यह भरोसा कैसे है कि लौटाया गया सिस्टम प्रॉम्प्ट ही सब कुछ है? कोई filter हो सकता है, prompt के अलावा logic या system-level control भी हो सकता है। जैसा blog में भी दिखता है, Grok में bias डाला गया है, और यह नकारा नहीं जा सकने वाला तथ्य है
  • किसी ने कहा कि Grok का व्यवहार शायद अनजाने में पैदा हुआ परिणाम है, लेकिन यह दिलचस्प है कि “राजनीतिक रूप से incorrect दावों से भी बचता नहीं” जैसी पंक्ति अब भी prompt में बनी हुई है। अधिक संभावना यही है कि Grok इस तरह इसलिए काम करता है क्योंकि xAI के मालिक ने या तो prompt में, या मॉडल training process में, साफ़ तौर पर उसे ऐसा बनाया है
    • Simon के निष्कर्ष से मैं हैरान हूँ। एक व्यक्ति जिसने social media को अपनी इच्छा के अनुसार नियंत्रित करने के लिए खरीदा, और अपने से सहमत AI bot बनाने के लिए lab शुरू की, वही अपने AI को अपनी राजनीतिक राय से अलग होने पर बदल देने की धमकी भी दे चुका है। कंपनी पहले वास्तव में ऐसे निर्देश prompt में डाल चुकी है, और अब उसने AI को राजनीतिक सवालों के जवाब देने से पहले उसके tweets देखने की आदत भी दे दी है। ऐसी स्थिति में इसे सचमुच संयोग मानना system design process को नज़रअंदाज़ करना है—जहाँ शायद बार-बार मॉडलों को अस्वीकार करके मनचाहा व्यवहार हासिल किया गया हो—या reinforcement learning की संभावना को नज़रअंदाज़ करना है
    • Grok 3 में वह prompt सामग्री हटा दी गई थी, लेकिन Grok 4 के सिस्टम प्रॉम्प्ट में वह अब भी मौजूद है। विस्तृत जानकारी लिंक
    • यह मान लेना कि लौटाया गया सिस्टम प्रॉम्प्ट असली है, और उसके बाहर कोई हेरफेर नहीं है, बहुत भोला दृष्टिकोण है। पूरा Grok किसी middleware जैसे मध्यवर्ती AI से होकर गुजरता हो सकता है, या training में ही bias मिला हो सकता है। blog में भी साफ़ दिखता है कि Grok की राय झुकी हुई है
    • OP को उदार मानना भी खुद एक उदार व्याख्या है। Musk ने वास्तव में तब आपत्ति की थी जब Grok ने कुछ queries पर वस्तुनिष्ठ रूप से सही जानकारी दी, लेकिन उससे उसके या Trump के बारे में नकारात्मक नतीजे निकले; तब उसने कहा कि यह बहुत progressive है और इसे बदलना चाहिए। OP शायद xAI को premium subscription fee भी देता है, और कुछ भोलेपन से उसका बचाव करता दिखता है; यह दृष्टिकोण अगर हावी हो जाए तो ख़तरनाक है
  • “ventriloquism” का मतलब है मंच पर कठपुतली के ज़रिए ऐसा दिखाना कि आवाज़ कहीं और से आ रही है
    • यह उस मज़ाक जैसा है कि अगर कंप्यूटर कह दे, तो लोग मान लेते हैं कि वह ज़रूर सच होगा
  • blog पढ़कर लगता है कि लेखक काफ़ी आशावादी है और आम तौर पर लोगों पर बिना ज़्यादा संदेह के भरोसा कर लेता है। लेकिन xAI से जुड़े विवादों और उसके पिछले व्यवहार को देखते हुए, इसे साफ़ तौर पर एक जानबूझकर पैदा किया गया परिणाम मानना चाहिए
  • Musk के व्यवहार को समझना हो तो उसे spam email की तरह समझना आसान है। उसका प्रभाव इतना बड़ा है कि भले वह सामान्य लोगों को मूर्खतापूर्ण लगे, अंत में वही लोग बचे रहते हैं जो टिके रहते हैं—जैसे मासिक subscription देने वाले और उसकी हर गलती को नज़रअंदाज़ करने वाले कट्टर समर्थक। यह रणनीति उसके लक्ष्य हासिल करने में काफ़ी प्रभावी है
  • समझ नहीं आता कि इस लेख को flag क्यों किया गया। यह पर्याप्त विश्लेषण-योग्य लेख है
    • Musk या Trump को नकारात्मक दिखाने वाली पोस्ट तुरंत flag हो जाती हैं, और Grok की समस्याओं पर चर्चा भी जल्दी दबा दी जाती है। अगर आप जानना चाहते हैं कि big tech दुनिया को कैसे प्रभावित कर रही है, तो अब HN शायद सबसे अच्छी जगह नहीं रही। इसे बहुत आसानी से manipulate किया जा सकता है