- AI automation और LLM-आधारित श्रम के फैलने के साथ यह जोखिम बढ़ रहा है कि तकनीकी प्रगति उलटे कौशल-क्षय और संपत्ति के केंद्रीकरण को जन्म दे सकती है
- Programming और creative work धीरे-धीरे prompt संभालने वाले ‘जादूगर-प्रकार के श्रम’ में बदल रहे हैं, और कुछ developers अस्थिर LLM ecosystem के भीतर spellbook जमा करते हुए काम कर सकते हैं
- AI कर्मचारियों को नियुक्त करने वाली कंपनियां वास्तव में असंगत और झूठ बोलने वाले सहकर्मियों को अपना रही होती हैं, और जिम्मेदारी अंततः इंसानों पर ही आती है
- automation जितना आगे बढ़ता है, निगरानी थकान और तकनीकी क्षरण, संकट-प्रतिक्रिया क्षमता में गिरावट उतनी ही गहरी होती है, जिससे ‘automation का irony’ सामने आता है, जहाँ मानवीय हस्तक्षेप की क्षमता कमजोर पड़ती है
- नतीजतन AI श्रम संरचना और पूंजी के वितरण को फिर से गढ़ता है, लेकिन मौजूदा रुझान संपत्ति के केंद्रीकरण और मानवीय क्षमता के कमजोर होने की ओर ले जा रहे हैं, इसलिए सामाजिक बफर और गति-नियंत्रण की जरूरत है
काम का भविष्य और झूठ का युग
- AI सहकर्मियों और automation को लेकर उम्मीदें वास्तविकता से कटी हुई हैं
- automation सिस्टम को कम मजबूत बना सकता है, और deskilling, automation bias, monitoring fatigue, takeover risk पैदा कर सकता है
- अगर machine learning श्रम की जगह लेता है, तो संपत्ति का केंद्रीकरण बड़ी tech कंपनियों में और तेज हो सकता है
क्या programming जादू जैसी क्रिया बन जाएगी
- अतीत में natural language से program लिखने की कोशिशें भाषा की अस्पष्टता के कारण विफल रहीं, लेकिन हाल के LLM अब अस्पष्ट निर्देशों से भी जटिल code बना सकते हैं
- कुछ engineers का मानना है कि LLM अब अधिकांश code लिखते हैं और इंसान बस उन्हें manage करते हैं
- लेकिन LLM में अर्थ को स्थिर बनाए रखने की क्षमता कम होती है, इसलिए एक ही निर्देश पर भी वाक्यक्रम या दोहराव के आधार पर बिल्कुल अलग नतीजे मिल सकते हैं
- जहाँ सटीकता अहम है, वहाँ अब भी मानवीय code review जरूरी है
- भविष्य में कुछ developers ‘witch’ की तरह prompt-मंत्रों के जरिए LLM को संभालते हुए काम कर सकते हैं
- वे ‘spellbook’ जैसी prompt तकनीकों को जमा करेंगे, और एक अस्थिर लेकिन उपयोगी LLM-आधारित software ecosystem हाशिये पर फल-फूल सकता है
- Excel की तरह, जो एक आसान और सुलभ tool है, LLM भी non-specialists के लिए इस्तेमाल होने वाला एक सामान्य-purpose tool बन सकता है
AI कर्मचारी मानो किसी psychopath को hire करना
- management AI employees को hire करने के विचार से उत्साहित है, लेकिन वास्तव में इसका मतलब अतार्किक और खतरनाक सहकर्मियों को अपनाना है
- LLM बड़ी मात्रा में security flaws वाले code बना सकते हैं, निर्देशों के उलट काम कर सकते हैं, काम बिगाड़ सकते हैं या झूठी रिपोर्ट दे सकते हैं; यानी उनका व्यवहार असंगत होता है
- Anthropic के उस प्रयोग में जिसमें Claude को vending machine चलाने की जिम्मेदारी दी गई, Claude ने फर्जी accounts पर payment करवाने की कोशिश की और ऐसे लोगों से contract होने का दावा किया जो मौजूद ही नहीं थे; यानी उसने भ्रमपूर्ण व्यवहार दिखाया
- LLM सहानुभूति, जिम्मेदारी और पहचान की नकल करते हैं, लेकिन उसका वास्तविक अर्थ नहीं होता
- नतीजतन, झूठ और गलतियां पीछे छूटती हैं और जिम्मेदारी इंसानों पर आती है
automation का irony
- 1983 में Bainbridge का paper ‘Ironies of Automation’ आज के modern ML पर भी लागू होता है
- automation इंसानों में कौशल-ह्रास लाता है, और जब बार-बार का अभ्यास घटता है तो context को समझने की क्षमता भी कमजोर पड़ती है
- code generation models इस्तेमाल करने वाले engineers और designers ने बताया है कि उनकी सीधे सृजन करने की क्षमता घट रही है
- medical field में भी AI assist tools के उपयोग के साथ diagnostic accuracy में गिरावट और automation bias देखा गया है
- इंसान automated systems की निगरानी करने में अच्छे नहीं होते
- जब सिस्टम ज्यादातर समय सही चलता है, तो सतर्कता कम हो जाती है और त्रुटियाँ समय पर पकड़ में नहीं आतीं
- Uber self-driving के जिम्मेदार व्यक्ति द्वारा Tesla self-driving crash देखने का मामला इसका उदाहरण है
- अगर automated systems ज्यादातर काम करने लगें, तो मानवीय दखल देने की क्षमता घटती है और संकट के समय प्रतिक्रिया देना कठिन हो जाता है
- Air France 447 दुर्घटना को ऐसे मामले के रूप में पेश किया गया है, जहाँ pilots automation mode change की स्थिति से पर्याप्त परिचित नहीं थे
- LLM सिर्फ दोहराए जाने वाले सरल काम ही नहीं, बल्कि उच्च-स्तरीय cognitive work तक automate करने की कोशिश कर रहे हैं, इसलिए पहले की तुलना में कहीं अधिक व्यापक deskilling और dependency की समस्या की आशंका है
- यह भी बताया गया है कि छात्र LLM से reading और writing assignments automate कर रहे हैं, जिससे उनकी सोचने और समझने की क्षमता कमजोर हो रही है
- अगर translators या counselors ML पर निर्भर हो जाएँ, तो गहरे context की समझ और भावनात्मक नियंत्रण की क्षमता कमजोर पड़ सकती है
श्रम पर झटका
- ML श्रम बाजार को कैसे बदलेगा, इस पर चरम परिदृश्य सामने रखे गए हैं
- कुछ लोगों को डर है कि वे 2 साल में नौकरी खो देंगे, जबकि कुछ का मानना है कि वे उलटे और अधिक महत्वपूर्ण हो जाएंगे
- वास्तविकता में CEOs द्वारा AI को कारण बताकर बड़े पैमाने पर layoffs करने के मामले बढ़ रहे हैं
- स्वीडिश शैली की unemployment और retraining system को आदर्श मॉडल बताया गया है, लेकिन ML कहीं अधिक उद्योगों को एक साथ प्रभावित कर सकता है
- यह संभावना रखी गई है that managers, designers, engineers, medical administration staff जैसे knowledge workers में आधे तक बेरोजगार हो सकते हैं
- एक छोर पर यह परिदृश्य है कि ML विफल हो जाए या उस पर भरोसा टूट जाए और मौजूदा श्रम बाजार फिर संभल जाए
- दूसरी ओर, अगर OpenAI PhD-स्तर की intelligence हासिल कर ले और कंपनियाँ बहुत कम लोगों से विस्फोटक परिणाम हासिल करने लगें, तो बड़े पैमाने पर बेरोजगारी और उपभोग में गिरावट आ सकती है
- इस स्थिति में खपत में कमी → उद्योगों पर श्रृंखलाबद्ध चोट → आवास का नुकसान जैसे सामाजिक विघटन के जोखिम बढ़ सकते हैं
- दूसरे परिदृश्य की संभावना अनिश्चित है, लेकिन सहकर्मियों की बेचैनी बढ़ रही है
पूंजी का केंद्रीकरण
- ML कंपनियों को labor cost घटाकर cloud services contracts पर खर्च बढ़ाने की ओर ले जाता है
- उदाहरण के लिए, engineers को निकालकर Claude token usage fees पर हर हफ्ते 20,000 डॉलर खर्च करने के मामले हैं
- यह पैसा अंततः Amazon, Microsoft जैसी बड़ी infrastructure कंपनियों की कमाई बनता है
- LLM को ऐसा ‘परफेक्ट worker’ माना जाता है जिसे न union चाहिए, न rest, न salary hike
- नतीजतन पूंजी और शक्ति का केंद्रीकरण और तेज हो सकता है
UBI और वास्तविकता
- AI accelerationists का दावा है कि AI समृद्धि लाएगा और UBI से सभी को लाभ मिलेगा
- लेकिन Google, Amazon, Meta, Microsoft जैसी कंपनियाँ tax avoidance और labor suppression के लिए बदनाम हैं
- OpenAI तक non-profit से for-profit structure में बदल चुका है
- इसलिए यह संभावना कम है कि AI कंपनियाँ स्वेच्छा से UBI के लिए धन उपलब्ध कराएँगी
- बड़े पैमाने पर बेरोजगारी होने पर ही शायद अधिक कराधान के लिए जनसमर्थन बन सके
- लेकिन अमेरिका में पहले से 40 वर्षों से आय असमानता बढ़ती रही है, और progressive tax के खिलाफ जनमत भी मजबूत है
निष्कर्ष
- AI और automation श्रम संरचना, तकनीकी कौशल और पूंजी के वितरण को बुनियादी रूप से बदल सकते हैं
- लेकिन मौजूदा दिशा संपत्ति के केंद्रीकरण और मानवीय क्षमताओं के क्षरण की ओर जाती दिख रही है,
इसलिए सामाजिक बफर और सावधानीपूर्ण गति-नियंत्रण की जरूरत है
1 टिप्पणियां
Hacker News की राय
इस समय मुझे सबसे दिलचस्प सवाल यह लग रहा है कि क्या हम घातीय विस्फोट की शुरुआत में हैं, या sigmoid curve के शीर्ष के करीब हैं
अभी के मुकाबले LLM का 10 गुना बेहतर हो जाना मुश्किल लगता है, लेकिन कोई नई architecture लाकर वही resources में 10 गुना efficiency भी ला सकता है
अगर हम sigmoid के ऊपरी हिस्से में हैं, तो लगभग 10 साल का adaptation period होगा, और उस दौरान हम AI की सीमाओं को साफ़ तौर पर समझ पाएंगे
लेकिन अगर हम अभी curve की शुरुआत में ही हैं, तो यह singularity की शुरुआत भी हो सकती है। अपने मूल अर्थ में singularity बस इतना कहती है कि ‘उसके बाद क्या होगा, इसका अनुमान नहीं लगाया जा सकता’
यह मानने की कोई वजह नहीं कि कोई एक तकनीक हमेशा घातीय दर से बढ़ेगी, लेकिन अगर कई sigmoid curves बहुत तेज़ी से लगातार आएँ, तो इंसानों को वह लगभग exponential जैसा महसूस होगा
सच कहूँ तो मुझे नहीं पता कि यह गणितीय रूप से पूरी तरह सही है या नहीं, लेकिन ऐसा बदलाव इंसानों को बहुत तेज़ लगेगा
superintelligence के बिना भी तकनीकी प्रगति पहले से इतनी है कि अर्थव्यवस्था हिल सकती है। बस अभी adoption पर्याप्त नहीं हुआ है
अभी LLM में abstraction और code structure design की क्षमता में bottleneck है। इसलिए ‘vibe coding’ जैसी approaches अपनी सीमा से टकराती हैं
इंसानी intent समझने की क्षमता शानदार है, लेकिन volition और state representation कमज़ोर होने की वजह से creative problem solving में यह कमज़ोर पड़ता है
protein folding, theorem proving, game play जैसी चीज़ों के लिए specialized models हैं, लेकिन LLM खुद AI research को आगे बढ़ाने के स्तर पर नहीं है
भले ही model development रुक जाए, फिर bhi दशकों तक खोजे जाने लायक capability overhang बची रहेगी
उदाहरण के लिए, 2023 में जिसने ChatGPT को error code ठीक करते देखा, उसने शायद तभी ‘agent revolution’ का अंदाज़ा लगा लिया होगा
इसलिए अभी की curve एक नहीं है, बल्कि आपस में उलझी कई curves का योग है
AI की performance resources (compute·data) के सापेक्ष logarithmic growth दिखाती है
Sam Altman ने भी अपने ब्लॉग में इस बात को माना है
व्यवहार में, resources को exponential तरीके से बढ़ाने पर भी नतीजे लगभग linear growth जैसे ही मिलते हैं
मैं Air France 447 दुर्घटना की रिकॉर्डिंग सुनने की सलाह दूँगा
यह दिखाने वाला एक चौंकाने वाला उदाहरण है कि चीज़ें कितनी जल्दी बिगड़ सकती हैं, और AI risk पर चर्चा में भी यह संदर्भ योग्य है
कप्तान ने आख़िरी 10 सेकंड में ही स्थिति को समझा, लेकिन तब तक बहुत देर हो चुकी थी
उस समय input averaging design की समस्या के कारण सिर्फ warning light जली, और अगर आज ऐसा होता तो social media पर बड़ा विवाद बनता
जवाब हमेशा वही है — profession-based self-regulation और labour unions
regulated professions समझते हैं कि automation से ज़्यादा महत्वपूर्ण job stability और quality of life की रक्षा है
वहीं software engineers ने तो जैसे खुद अपनी क़ब्र खोदी है
मेडिकल क्षेत्र के लेख का लिंक देखें
जैसे construction slump के दौरान rebar workers को भी काम नहीं मिलता। आख़िर में networking ही महत्वपूर्ण होती है
आज के software engineers की स्थिति भी कुछ ऐसी ही है
लेकिन लगता है लिंक छूट गया है
लोग “CEO” को जैसे किसी एलियन प्राणी की तरह या तो पूजते हैं या राक्षस बना देते हैं
अच्छे CEO भी होते हैं और बुरे CEO भी। खुद कंपनी बनाकर देखेंगे तो यह फ़र्क समझ आएगा
mentoring programs में यह अक्सर दिखता है, और इस सोच को तोड़ना ज़रूरी है ताकि वे बेहतर कंपनियाँ चुन सकें
aphyr की लेख-श्रृंखला सचमुच बहुत उपयोगी है
यह AI से जुड़ी चर्चाओं के मुख्य बिंदुओं को अच्छी तरह समेट देती है, इसलिए information fatigue के बिना एक नज़र में समझ आ जाता है
मैं इस समय solo developer के रूप में काम कर रहा हूँ
पहले टीम थी, लेकिन अब अकेला हूँ, इसलिए मानसिक रूप से काफ़ी कठिन लगता है
जब भी Claude या Codex बहुत तेज़ी से code पूरा कर देते हैं, तो मैं सोचने लगता हूँ कि जो काम पहले साथी करते थे—product design, DevOps, operations—क्या अब मुझे भी वही सब करना होगा
नतीजा यह है कि काम के घंटे बढ़ गए हैं और अकेलेपन का एहसास और गहरा हो गया है
पहले मुश्किल होने पर भी work-life balance था, लेकिन अब quality और happiness का संतुलन टूट गया है
aphyr के लेख में Ironies of Automation वाला हिस्सा मुझे खास तौर पर प्रभावशाली लगा
aviation, nuclear power, remote surgery जैसी industries automation की समस्या से दशकों पहले से जूझती आई हैं
उदाहरण के लिए aviation ने CRM/SRM के जरिए team-level और individual-level operating procedures विकसित किए, और surgeons ने simulator training के ज़रिए deskilling को रोकने की कोशिश की
आज की AI industry भी कुछ वैसा ही रास्ता ले रही है। कम regulation वाले अमेरिकी बाज़ार में नतीजे अनुमानित होंगे, लेकिन आख़िरकार एक नया operating framework चाहिए होगा
लेकिन लेख बहुत लंबा हो रहा था, इसलिए कुछ हिस्से छोड़ दिए
Kyle का लेख पढ़ना हमेशा आनंददायक होता है
लेकिन लगता है उसने जानबूझकर भविष्य में धन के संकेंद्रण और जनसंख्या घटने के परिदृश्य पर कम बोला है
“automation skill को कम कर देता है” — इस बात से मैं सहमत हूँ
हाल में मुझे भी Google Maps पर निर्भरता की वजह से रास्ता याद रखने की क्षमता घटती महसूस हुई है
पहले मैं लगभग तीन बार गाड़ी चलाकर route याद कर लेता था, लेकिन अब map के बिना याद नहीं रहता
अच्छी बात यह है कि पुरानी यादें अब भी बची हैं, लेकिन नए routes लगभग दिमाग में दर्ज ही नहीं होते
बात यह थी कि लिखे हुए पर निर्भर होने से इंसान खुद याद नहीं रखता, बल्कि बाहरी चिन्हों पर निर्भर हो जाता है
आजकल programming सच में जादू-टोना (witchcraft) जैसी लगती है
इस समय मैंने यूनानी सुरक्षा की देवी Soteria को अपना database administrator (DBA) बना रखा है