- आज जिसे AI कहा जाता है, वह वास्तव में जटिल machine learning (ML) systems हैं, जिनकी संरचना text·image·audio को सांख्यिकीय रूप से पूरा करने पर आधारित है
- LLM एक ऐसी मशीन है जो improvisation की तरह ‘विश्वसनीय झूठ’ गढ़ती है, और “मुझे नहीं पता” कहने से बचते हुए काल्पनिक तथ्य बना देती है
- लोग इसे एक सचेत अस्तित्व समझ बैठते हैं, लेकिन मॉडल की self-explanation और reasoning process महज़ काल्पनिक कथाएँ हैं
- LLM उन्नत समस्याएँ हल करते हुए भी सरल कार्यों में विफल होने वाला असमान प्रदर्शन दिखाते हैं, जो भरोसेमंद न होने वाली सीमाओं को उजागर करता है
- इस असंतुलन और अनिश्चितता के बीच ML एक ऐसी तकनीक बन चुकी है जो मानव समाज को मूल रूप से अजीब ढंग से बदल रही है
प्रस्तावना
- Asimov और Clarke की SF दुनिया को देखकर बड़े हुए लोगों ने बुद्धिमान मशीनों के आगमन की आशावादी कल्पना की थी, लेकिन Turing test के ढह जाने जैसी वास्तविकता ने निराशा पैदा की
- 2019 में एक बड़े cloud कंपनी ने LLM training hardware की घोषणा की थी, तब यह चिंता उठी कि deep learning का प्रसार spam और propaganda के नए रूप पैदा कर सकता है
- यह लेख AI विमर्श के नकारात्मक पक्ष को टटोलता है, और पूर्ण विश्लेषण के बजाय जोखिमों और संभावनाओं की रूपरेखा दिखाने की कोशिश के रूप में बना है
- “AI” शब्द अत्यधिक व्यापक है, इसलिए ध्यान ML और LLM केंद्रित ठोस चर्चा पर रखा गया है
- कुछ भविष्यवाणियाँ पहले ही सच हो चुकी हैं, और कुछ अब भी अनिश्चित और विचित्र क्षेत्र में बनी हुई हैं
“AI” क्या है
- आज जिसे “AI” कहा जाता है, वह जटिल machine learning (ML) तकनीकों का समूह है, जो text·image·audio·video जैसे token vectors को पहचानने, बदलने और उत्पन्न करने वाले systems हैं
- LLM (Large Language Model) प्राकृतिक भाषा को संभालते हैं, और input string के सांख्यिकीय रूप से संभावित completion का अनुमान लगाकर काम करते हैं
- मॉडल को web pages, pirated books और music सहित बड़े data corpus पर train किया जाता है, और training के बाद कम-लागत inference के जरिए बार-बार इस्तेमाल किया जा सकता है
- मॉडल समय बीतने पर खुद से नहीं सीखते; उन्हें केवल operator tuning या retraining के माध्यम से ही अपडेट किया जाता है
- conversational models की “memory” वास्तव में पिछली बातचीत के सारांश को input में शामिल करने वाली एक संरचनात्मक तकनीक है
वास्तविकता की fan fiction
- LLM improv मशीन की तरह काम करते हैं, और दिए गए context को “हाँ, और फिर...” की तरह आगे बढ़ाने वाला ‘yes-and’ pattern दिखाते हैं
- इसके कारण वे तथ्यों से असंबंधित लेकिन विश्वसनीय लगने वाले वाक्य बना देते हैं, satire या context को गलत समझते हैं और गलत जानकारी गढ़ते हैं
- इंसान ऐसी output को किसी सचेत अस्तित्व की वास्तविक अभिव्यक्ति समझने की भूल आसानी से कर सकता है
- चूँकि LLM हर input पर कुछ न कुछ output बनाते हैं, इसलिए उनमें “मुझे नहीं पता” कहने से बचकर झूठ गढ़ने की प्रवृत्ति होती है
- ऐसे झूठ किसी इरादतन कर्म का परिणाम नहीं होते, बल्कि मानव और मशीन की अंतःक्रिया से बने सामाजिक-तकनीकी उत्पाद के रूप में उभरते हैं
अविश्वसनीय वक्ता
- लोग LLM से “तुमने ऐसा क्यों किया” जैसी self-explanation माँगते हैं, लेकिन मॉडल में self-awareness की क्षमता नहीं होती
- LLM केवल पिछली बातचीत और corpus पर आधारित probabilistic completion उत्पन्न करते हैं, और अपने बारे में दी गई व्याख्या भी काल्पनिक कहानी के रूप में बनती है
- “reasoning” model भी अपनी सोच की प्रक्रिया को कथात्मक रूप में गढ़ने के तरीके से काम करते हैं
- Anthropic के शोध के अनुसार Claude के reasoning log का अधिकांश हिस्सा गलत था, और “thinking” जैसी status message भी एक काल्पनिक प्रस्तुति भर है
मॉडल स्मार्ट हैं
- पिछले कुछ महीनों में यह धारणा फैली है कि LLM की क्षमताओं में तेज़ सुधार हुआ है
- कुछ engineers ने बताया कि Claude या Codex जटिल programming tasks को एक ही बार में हल कर देते हैं
- कई क्षेत्रों में diet planning, construction specification review, 3D visualization, self-evaluation writing जैसे व्यावहारिक उपयोग हो रहे हैं
- AlphaFold की protein folding prediction और medical image interpretation जैसे क्षेत्रों में भी उच्च प्रदर्शन दिखा है
- English writing style, image और music जैसे क्षेत्रों में इंसान और मशीन के बीच फर्क करना लगातार कठिन होता जा रहा है, हालांकि video generation अभी भी सीमित है
मॉडल मूर्ख हैं
- साथ ही LLM को बुनियादी गलतियाँ बार-बार दोहराने वाले ‘मूर्ख’ systems के रूप में भी देखा जाता है
- उदाहरण के लिए Gemini 3D model rendering में geometry और materials को बार-बार गलत संभालता है, और Claude बेअर्थ JavaScript visualization code बना देता है
- ChatGPT साधारण color correction request तक सही से पूरी नहीं कर पाता, और उपयोगकर्ता की sexual orientation के बारे में गलत दावे करने लगता है
- ऐसे मामले दर्ज हुए हैं जहाँ LLM ने गलत data से graph बनाए, smart home control में विफलता दिखाई, या financial loss का कारण बने
- Google की AI summary feature में करीब 10% error rate देखा गया, और “expert-level intelligence” का दावा बढ़ा-चढ़ाकर पेश किया गया भ्रम माना गया
ऊबड़-खाबड़ सीमाएँ
- इंसान आम तौर पर अपनी क्षमता की सीमा का अनुमान लगा सकता है, लेकिन ML systems का प्रदर्शन अनियमित और अप्रत्याशित होता है
- LLM उन्नत गणित हल कर लेते हैं लेकिन सरल भाषा-सम्बंधी समस्याओं में असफल हो जाते हैं, और भौतिक commonsense से रहित व्याख्याएँ देते हैं
- इस असंतुलन को ‘jagged technology frontier’ कहा जाता है, जो मानव क्षमताओं के वितरण से अलग असतत रूप लेता है
- ML training data या context window पर निर्भर करता है, इसलिए उन कार्यों में कमजोर पड़ता है जिनमें implicit knowledge चाहिए
- humanoid robots या embodied knowledge की जरूरत वाले क्षेत्र अभी भी काफी दूर हैं
सुधार हो रहा है, या नहीं
- शोधकर्ता अब तक transformer models की सफलता के कारण को भी स्पष्ट रूप से नहीं समझते
- 2017 के शोधपत्र Attention is All You Need के बाद कई तरह की संरचनाएँ आज़माई गईं, लेकिन सिर्फ parameters बढ़ाने वाला तरीका अब भी सबसे प्रभावी बना हुआ है
- training cost और parameter count में तेज़ बढ़ोतरी के बावजूद performance improvement धीमा पड़ रहा है, और यह दृष्टिभ्रम है या वास्तविक सीमा, यह स्पष्ट नहीं है
- भले ही ML अब आगे बहुत न सुधरे, वह पहले ही समाज, राजनीति, कला और अर्थव्यवस्था पर गहरा प्रभाव डाल चुका है
- नतीजतन ML एक ऐसी तकनीक है जो मानव जीवन को मूल रूप से अजीब ढंग से बदल रही है, और आगे की दिशा “अजीब तरीके से आगे बढ़ने” की पूरी संभावना रखती है
शब्दावली टिप्पणी
- “AI” बहुत व्यापक शब्द है, इसलिए इसे ML या LLM के रूप में अधिक सटीक बनाया गया है
- “generative AI” में recognition tasks शामिल नहीं होते, इसलिए इसे अधूरा पद माना गया है
- LLM अपने बारे में झूठ क्यों बोलते दिखते हैं, इसका कारण AI पर मानव कथाएँ और training data का प्रभाव है
- “मॉडल मूर्ख हैं” इस दावे के जवाब में कुछ लोग कहते हैं कि समस्या prompt या model selection की है, लेकिन यह भी पुष्टि हुई है कि नवीनतम commercial models में भी वही गलतियाँ दोहराई जाती हैं
अभी कोई टिप्पणी नहीं है.