- Large Language Model (LLM) के जवाब तथ्य नहीं होते, बल्कि शब्दों के सांख्यिकीय पूर्वानुमान का परिणाम होते हैं
- ChatGPT, Claude, Gemini आदि सिर्फ अगला सबसे संभावित शब्द predict करते हैं, सूचना के स्रोत या उसकी सत्यता को नहीं समझते
- ये विश्वसनीय लगने वाले वाक्य बना सकते हैं, लेकिन उनका कंटेंट सटीक या भरोसेमंद न भी हो सकता है
- AI के जवाबों को अधिकारिक आधार की तरह copy-paste करके आगे भेजना दरअसल सिर्फ “अक्सर साथ इस्तेमाल होने वाले शब्दों के संयोजन” को दोहराना है
- AI के जवाबों को तथ्य मानकर उद्धृत करने की प्रथा ज्ञान की जाँच और सोचने-समझने की क्षमता के कमजोर पड़ने के जोखिम को दिखाती है
AI जवाबों का मूल स्वभाव
- ChatGPT, Claude, Gemini जैसे Large Language Model के जवाब तथ्य नहीं होते
- ये वाक्य में आगे आने वाले शब्द का पूर्वानुमान लगाकर काम करते हैं
- नतीजतन ये विश्वसनीय दिखने वाली लेकिन गलत जानकारी पैदा कर सकते हैं
- ऐसे मॉडल की तुलना ऐसे व्यक्ति से की जा सकती है जिसने बहुत सारी सामग्री पढ़ी हो लेकिन स्रोत याद न हों
- यानी ये सूचना के आधार और संदर्भ को समझे बिना सिर्फ वाक्यों को दोबारा संयोजित करते हैं
भरोसेमंदी की सीमाएँ
- AI द्वारा दिए गए जवाब या सलाह सही हो सकते हैं, लेकिन उनका आधार स्पष्ट नहीं होता
- जवाब “याद रखी हुई किताब” नहीं, बल्कि अक्सर साथ आने वाले शब्दों का संयोजन है
- इसलिए AI के आउटपुट को तथ्य या आधिकारिक जानकारी की तरह उद्धृत करना उचित नहीं है
- “ChatGPT ने ऐसा कहा” जैसा दावा सिर्फ शब्द-पूर्वानुमान के नतीजे का हवाला भर है
उद्धरण का जोखिम
- AI के जवाब को ज्यों का त्यों copy करके आगे भेजना सच नहीं, बल्कि शब्दों के संयोजन को फैलाने जैसा है
- यह कभी-कभी उपयोगी हो सकता है या कुछ insight दे सकता है, लेकिन यह सत्य या अंतिम निर्णय का मानदंड नहीं है
- लेख में इस व्यवहार को “होशियार लोगों का सोचना बंद कर देना” कहा गया है
अतिरिक्त संदर्भ सामग्री
निष्कर्ष
- AI और machine learning तकनीक को अपने आप में सकारात्मक माना जा सकता है,
लेकिन AI के जवाबों को बिना आलोचनात्मक जाँच के उद्धृत या उन पर भरोसा करने के रवैये से सावधान रहना चाहिए
- साइट सलाह देती है कि जो लोग “But ChatGPT Said…” कहते हैं, उनके साथ यह सामग्री साझा करें
5 टिप्पणियां
क्या यह 1 साल पुरानी पोस्ट है?
हाहाहाहा
https://github.com/leoherzog/stopcitingai/blob/main/index.html
नहीं, अगर आप फ़ाइल का संशोधन इतिहास देखें, तो पता चलेगा कि इसका ड्राफ्ट एक हफ़्ता पहले तैयार किया गया था।
"यह शब्दों की statistical prediction का परिणाम है" — सिर्फ इस तथ्य को समझ लेने से ही शायद यह साफ़ हो जाता है कि AI को कैसे हैंडल करना चाहिए।
Hacker News राय
ChatGPT, Claude, Gemini जैसे LLM के जवाब तथ्य नहीं होते
वे सिर्फ अगला आने वाला शब्द predict करते हैं
“Wikipedia का लेख भी तथ्य नहीं, सिर्फ magnetic flux में उतार-चढ़ाव है” जैसी उपमा बेमानी है
आखिरकार असली बात source बताने की है। चाहे Wikipedia हो, इंसान हो, या कुत्ता—source नहीं है तो मैं भरोसा नहीं करूंगा
output बस probability के आधार पर चुने गए शब्दों का मेल है; कुछ शब्द आम अभिव्यक्तियों से, कुछ 4chan जैसी जगहों से, और कुछ hallucination भी हो सकते हैं
ऐसे में “तथ्य का source” जैसी अवधारणा लागू ही नहीं होती
“तथ्य” की परिभाषा कैसे की जाती है, उस पर बहस का केंद्र बदल जाता है
समस्या नतीजे में नहीं, बल्कि नतीजा निकालने की प्रक्रिया की विश्वसनीयता में है
अगर पासा फेंककर “3+4=7” सही आ भी जाए, तो वह सिर्फ संयोग से सही है; प्रक्रिया फिर भी गलत है
LLM की समस्या भी कुछ ऐसी ही प्रक्रिया-जनित त्रुटि के करीब है
असल में इसे मानवीय पसंद और sycophancy के हिसाब से train किया जाता है, ताकि पढ़ने में मीठा “high-fructose syrup जैसा लेखन” निकले
इसलिए brainstorming या summary के लिए यह उल्टा अनुपयुक्त हो सकता है
लेकिन साधारण factual सवालों में यह धीरे-धीरे बेहतर हो रहा है
आखिरकार LLM सिर्फ predictor नहीं, बल्कि ज़्यादा भरोसेमंद दिखने के लिए optimize की गई चीज़ है
छोटी कंपनियों में भी AI इस्तेमाल को लेकर expectation set करना ज़रूरी है
“AI इस्तेमाल करो, लेकिन नतीजे की ज़िम्मेदारी तुम्हारी है” जैसा आसान सिद्धांत ही काफी है
data validation, code testing, और response verification ज़रूरी हैं
पहले कहा जाता था, “Stack Overflow से copy-paste मत करो, पढ़ो और समझो”
दुनिया बदल गई है, लेकिन मूल बात वही है
यही बड़ा बदलाव है
“हज़ारों किताबें पढ़ी हैं, लेकिन कहाँ पढ़ी थीं याद नहीं” वाली उपमा LLM से मिलती-जुलती लगती है
मैं भी कभी-कभी “शायद Schaum series में था?” कहते हुए source की hallucination कर देता हूँ
शुरू में याद रहता है कि “Paris फ्रांस की राजधानी है” कहाँ सीखा था, लेकिन समय के साथ source मिट जाता है और सिर्फ सामग्री रह जाती है
LLM पूरी तरह Garbage In, Garbage Out सिद्धांत का पालन करता है
जहाँ documentation अच्छी है, वहाँ यह अच्छा काम करता है; लेकिन अस्पष्ट विषयों में उलटी-सीधी जानकारी देता है
खासकर context समझने में यह कमजोर है, इसलिए स्पष्ट निर्देश न हों तो गलत जवाब देता है
technical support में अक्सर ऐसे ग्राहकों से बहस हो जाती है जो ChatGPT के जवाब को ज्यों-का-त्यों सही मान लेते हैं
correction माँगो तो बदले में एक और गलत जवाब और बेकार की माफ़ी मिलती है
“post-truth” दौर बेचैन करने वाला है, लेकिन उल्टा यह भी लगता है कि लोग अब ज़्यादा सवाल और संदेह कर रहे हैं
Rorty के कहे अनुसार, “तथ्य वह है जिस पर हम अब और बहस नहीं करते”—इसे सामाजिक सहमति का उत्पाद मानना चाहिए
truth पर बहस से ज़्यादा अहम है विभिन्न discourse communities के बीच भाषा-टकराव को संभालने का तरीका
अगर आप अपने बॉस से कहें, “यह बेवकूफी भरा विचार है,” तो उन्हें पसंद आने वाला नहीं है
“क्या हम वह conversation log साथ में देख सकते हैं?” पूछना बेहतर है
तभी यह पता चल सकता है कि LLM ने पक्षपात कहाँ डाला
बिना verification वाले LLM output को खंडित करना मेरी ज़िम्मेदारी नहीं, ज़िम्मेदारी quote करने वाले की है
“source citation” की बहस असल में एक गहरी समस्या को छोड़ रही है
LLM ऐसे कामों में मज़बूत है जिन्हें verify किया जा सकता है (code, translation, summary), लेकिन ऐसे क्षेत्रों में कमजोर है जिन्हें verify करना कठिन है (research, विशेषज्ञ क्षेत्र)
इसलिए मैं LLM को सिर्फ ऐसा draft generator मानता हूँ जिसे कोई expert review कर सके
खतरा hallucination नहीं, बल्कि वह confidence gap है जो तब पैदा होता है जब model की fluency उपयोगकर्ता की expertise से आगे निकल जाती है
RAG या web search जैसे tool-calling तरीके भी आखिरकार बस किसी दूसरे failure mode से अदला-बदली हैं
“अगर ChatGPT मुझसे ज़्यादा भरोसेमंद है, तो आपने मुझे नौकरी पर क्यों रखा?”—मेरी प्रतिक्रिया यही होती है
मैं घंटों लगाकर समझा सकता हूँ, लेकिन क्या सीधे expert पर भरोसा करना बेहतर नहीं है?