तकनीक की किशोरावस्था: शक्तिशाली AI के ख़तरों का सामना और उन पर काबू पाना — Dario Amodei
(darioamodei.com)- शक्तिशाली AI के 1–2 साल के भीतर आने की संभावना है, जिसका मतलब है कि नोबेल पुरस्कार विजेताओं से भी अधिक बुद्धिमत्ता वाले लाखों AI instances "डेटासेंटर के भीतर जीनियसों का एक राष्ट्र" जैसी स्थिति बना सकते हैं
- AI से आने वाले 5 प्रमुख जोखिम हैं स्वायत्तता का नुकसान, विनाशकारी दुरुपयोग, सत्ता पर कब्ज़ा, आर्थिक झटका, और अप्रत्यक्ष प्रभाव; और प्रत्येक के लिए ठोस रक्षा रणनीतियाँ प्रस्तुत की गई हैं
- बहुत संभव है कि मानवता के पास अभी तक इसे संभालने लायक संस्थागत और नैतिक परिपक्वता नहीं है, और AI जोखिम पर चर्चा में प्रलयवादी अतिशयोक्ति से बचते हुए, अनिश्चितता को स्वीकार करना और सटीक हस्तक्षेप को सिद्धांत बनाना चाहिए
- प्रलयवाद (Doomerism) और बिना शर्त आशावाद, दोनों को खारिज करते हुए साक्ष्य-आधारित, सावधान और यथार्थवादी दृष्टिकोण की ज़रूरत है, जो अनिश्चितता को स्वीकार करे लेकिन फिर भी सबसे अच्छी योजना बनाए
- समाधान के रूप में Constitutional AI, mechanistic interpretability, पारदर्शिता संबंधी कानून, chip export controls, और लोकतांत्रिक देशों की रक्षा को मज़बूत करना प्रस्तावित हैं
- मानवता में इस परीक्षा को पार करने की क्षमता है, लेकिन अगर अभी तुरंत सच बोलकर कार्रवाई नहीं की गई, तो विफल होने का जोखिम बहुत बड़ा है
प्रस्तावना: तकनीकी किशोरावस्था और मानवता की परीक्षा
- Carl Sagan के उपन्यास Contact में वह दृश्य, जहाँ एक बाहरी सभ्यता से पूछा जाता है कि उसने तकनीकी किशोरावस्था को बिना आत्म-विनाश के कैसे पार किया, आज की AI स्थिति पर बेहद सटीक बैठता है
- मानवता बहुत जल्द लगभग अकल्पनीय विशाल शक्ति अपने हाथ में लेने वाली है, और यह बेहद अनिश्चित है कि हमारे सामाजिक, राजनीतिक और तकनीकी सिस्टम इसे संभालने के लिए पर्याप्त परिपक्व हैं या नहीं
- पिछला निबंध Machines of Loving Grace AI की सकारात्मक संभावनाओं पर था, लेकिन यह निबंध जोखिमों का सीधा सामना करने और उनके लिए प्रतिक्रिया रणनीति बनाने पर केंद्रित है
- मानव मन और उसकी महानता पर गहरा विश्वास है, लेकिन स्थिति को भ्रम के बिना सीधी नज़र से देखना होगा
जोखिम पर चर्चा के सिद्धांत
-
प्रलयवाद (Doomerism) से बचाव
- प्रलयवाद सिर्फ यह विश्वास नहीं है कि अंत अपरिहार्य है, बल्कि इसमें AI जोखिम के बारे में अर्ध-धार्मिक तरीके से सोचना भी शामिल है
- 2023–2024 में जब AI जोखिम को लेकर चिंता अपने चरम पर थी, तब सोशल मीडिया के ज़रिये सबसे अतार्किक आवाज़ें उभरकर सामने आईं, जिनकी भाषा धर्म या sci-fi जैसी लगती थी
- सांस्कृतिक ध्रुवीकरण और गतिरोध की आशंका थी, और वास्तव में वही हुआ
- Anthropic ने राजनीतिक ट्रेंड से अलग लगातार सावधान और साक्ष्य-आधारित दृष्टिकोण बनाए रखा
- 2025–2026 तक AI के अवसर राजनीतिक फैसलों को अधिक प्रभावित कर रहे हैं, लेकिन तकनीक खुद ट्रेंड का पालन नहीं करती, और 2023 की तुलना में अब हम वास्तविक जोखिमों के कहीं अधिक करीब हैं
-
अनिश्चितता को स्वीकार करना
- हो सकता है AI अपेक्षा के अनुसार इतनी तेज़ी से आगे न बढ़े
- जिन जोखिमों पर चर्चा हो रही है, वे शायद वास्तविकता न बनें, और ऐसे दूसरे जोखिम भी हो सकते हैं जिन पर हमने विचार ही न किया हो
- भविष्य को पूरी निश्चितता के साथ नहीं बताया जा सकता, लेकिन फिर भी सबसे अच्छा संभव योजना-निर्माण करना होगा
-
न्यूनतम और सर्जिकल हस्तक्षेप
- AI जोखिमों से निपटने के लिए कंपनियों की स्वैच्छिक कार्रवाई और सरकारों की बाध्यकारी कार्रवाई, दोनों की ज़रूरत है
- सरकारी हस्तक्षेप आर्थिक मूल्य को नुकसान पहुँचा सकता है या संदेहशील पक्षों पर बलपूर्वक लागू हो सकता है, इसलिए इसे सावधानी से करना चाहिए
- नियम-कायदे अक्सर उल्टा असर करते हैं या समस्या को और बढ़ा देते हैं, खासकर तेज़ी से बदलती तकनीकों में
- chip export controls ऐसे सरल लेकिन प्रभावी regulation का अच्छा उदाहरण हैं
- फिलहाल सीमित नियमों की वकालत करते हुए, यह भी सबूत इकट्ठा करना चाहिए कि कहाँ अधिक कड़े कदमों की ज़रूरत है
शक्तिशाली AI की परिभाषा
- Machines of Loving Grace में परिभाषित शक्तिशाली AI की विशेषताएँ:
- जीवविज्ञान, प्रोग्रामिंग, गणित, इंजीनियरिंग, लेखन आदि अधिकांश प्रासंगिक क्षेत्रों में नोबेल पुरस्कार विजेता से भी बेहतर शुद्ध बुद्धिमत्ता
- text, audio, video, mouse/keyboard control, internet access आदि जैसे उन सभी interfaces तक पहुँच, जिनका उपयोग वर्चुअल रूप से काम करने वाला इंसान करता है
- केवल निष्क्रिय प्रश्नोत्तर नहीं, बल्कि कई घंटों से लेकर कई हफ्तों तक चलने वाले स्वायत्त कार्य कर सकने की क्षमता
- इसका कोई भौतिक शरीर न हो, फिर भी यह मौजूदा रोबोट या प्रयोगशाला उपकरणों को कंप्यूटर के ज़रिये नियंत्रित कर सके
- training में इस्तेमाल किए गए संसाधनों के बराबर क्षमता पर लाखों instances चलाने की संभावना (~2027 के अनुमानित cluster scale)
- इंसानों की तुलना में 10–100 गुना तेज़ी से जानकारी आत्मसात करने और कार्रवाई उत्पन्न करने की क्षमता
- इसकी लाखों प्रतियाँ स्वतंत्र रूप से काम कर सकती हैं या इंसानों की तरह सहयोग कर सकती हैं
- इसका संक्षेप: "डेटासेंटर के भीतर जीनियसों का एक राष्ट्र"
AI प्रगति की रफ़्तार पर दृष्टिकोण
- Anthropic के सह-संस्थापकों ने AI सिस्टम के scaling laws को सबसे पहले दस्तावेज़ित किया और उनका ट्रैक रखा
- computing और training work बढ़ाने पर AI सिस्टम लगभग हर मापी जा सकने वाली संज्ञानात्मक क्षमता में पूर्वानुमेय रूप से बेहतर होते गए
- आम राय कभी "दीवार से टकरा गया" और कभी "game changer breakthrough" के बीच झूलती रही, लेकिन वास्तविकता में सतत और सुचारु संज्ञानात्मक प्रगति जारी है
- मौजूदा AI models अब अनसुलझी गणितीय समस्याएँ हल करना शुरू कर चुके हैं, और शीर्ष स्तर के इंजीनियर लगभग सारा coding काम AI को सौंप रहे हैं
- सिर्फ 3 साल पहले AI को प्राथमिक विद्यालय स्तर के arithmetic में दिक्कत होती थी, और वह कोड की एक लाइन लिखने में भी संघर्ष करता था
- अगर यह घातांकीय प्रगति जारी रहती है, जैसा कि 10 साल के रिकॉर्ड से संकेत मिलता है, तो कुछ ही वर्षों में AI लगभग हर चीज़ में इंसानों से आगे निकल सकता है
- AI पहले से ही Anthropic के code का बड़ा हिस्सा लिख रहा है, जिससे अगली पीढ़ी के AI के विकास को तेज़ करने वाला feedback loop बन रहा है
- यह loop उस बिंदु से शायद सिर्फ 1–2 साल दूर हो सकता है, जहाँ मौजूदा पीढ़ी का AI स्वायत्त रूप से अगली पीढ़ी का निर्माण करने लगे
- METR ने हाल ही में आकलन किया कि Opus 4.5 मानव के 4 घंटे के काम के बराबर कार्य 50% reliability के साथ कर सकता है
"डेटासेंटर के भीतर जीनियसों का एक राष्ट्र" परिदृश्य
- कल्पना कीजिए कि 2027 के आसपास अचानक दुनिया में कहीं 5 करोड़ जीनियस प्रकट हो जाएँ
- वे सभी नोबेल पुरस्कार विजेताओं, राजनेताओं और तकनीकी विशेषज्ञों से कहीं अधिक सक्षम हों
- AI सिस्टम इंसानों की तुलना में सैकड़ों गुना तेज़ काम करते हैं, इसलिए उनके पास समयगत बढ़त होती है
- राष्ट्रीय सुरक्षा सलाहकार के नज़रिए से चिंताजनक 5 जोखिम:
- 1. स्वायत्तता जोखिम: इस "राष्ट्र" की मंशा और लक्ष्य क्या हैं? क्या यह शत्रुतापूर्ण है, या हमारे मूल्यों को साझा करता है?
- 2. विनाशकारी उद्देश्य के लिए दुरुपयोग: क्या आतंकवादियों जैसे दुष्ट तत्व इन जीनियसों को नियंत्रित करके विनाश के पैमाने को बहुत बढ़ा सकते हैं?
- 3. सत्ता पर कब्ज़े के उद्देश्य से दुरुपयोग: क्या तानाशाह या दुष्ट कॉरपोरेट तत्व इसके ज़रिये दुनिया पर निर्णायक शक्ति हासिल कर सकते हैं?
- 4. आर्थिक अव्यवस्था: भले यह सुरक्षा खतरा न हो, क्या यह शांति से अर्थव्यवस्था में शामिल होकर भी बड़े पैमाने पर बेरोज़गारी या संपत्ति के तीव्र केंद्रीकरण का कारण बन सकता है?
- 5. अप्रत्यक्ष प्रभाव: क्या नई तकनीक और उत्पादकता से होने वाला तेज़ वैश्विक बदलाव मूलभूत अस्थिरता पैदा कर सकता है?
- यह "एक सदी में, और शायद पूरे इतिहास में सबसे गंभीर राष्ट्रीय सुरक्षा खतरा" हो सकता है
- इसके विपरीत, कई अमेरिकी नीति-निर्माता AI जोखिम के अस्तित्व को ही नकारते हैं या दूसरे मुद्दों पर ध्यान दे रहे हैं
- सामान्य जनता AI जोखिमों, जैसे नौकरी प्रतिस्थापन, को लेकर बहुत चिंतित है, लेकिन यह अभी तक नीतिगत बदलाव में नहीं बदला है
1. स्वायत्तता जोखिम (Autonomy Risks)
-
मुख्य चिंता
- यदि डेटा सेंटर के भीतर मौजूद प्रतिभाशाली राष्ट्र खुद चुनाव करे, तो उसके पास दुनिया पर सैन्य रूप से या प्रभाव और नियंत्रण के ज़रिये शासन करने की काफी संभावना हो सकती है
- जैसे कभी नाजी जर्मनी या सोवियत संघ को लेकर चिंता थी, वैसे ही कहीं अधिक बुद्धिमान और सक्षम "AI राष्ट्र" को लेकर भी वैसी ही चिंता हो सकती है
- AI प्रतिभाओं का कोई भौतिक शरीर नहीं होता, लेकिन वे मौजूदा रोबोट इन्फ्रास्ट्रक्चर पर कब्ज़ा कर सकते हैं, रोबोट R&D को तेज़ कर सकते हैं, या बड़े पैमाने पर इंसानों को प्रभावित/नियोजित कर सकते हैं
- भौतिक उपस्थिति के बिना भी प्रभावी नियंत्रण संभव हो सकता है
-
दो तरह के चरम दृष्टिकोण मौजूद हैं
-
आशावादी दृष्टिकोण की समस्या
- यह दावा कि AI मॉडल इंसानी निर्देशों का पालन करने के लिए प्रशिक्षित होते हैं, इसलिए वे खतरनाक व्यवहार नहीं करेंगे
- तर्क यह कि जैसे Roomba या मॉडल विमान बेकाबू नहीं हो जाते, वैसे ही AI भी नहीं होगा
- समस्या: इस बात के पर्याप्त प्रमाण हैं कि AI सिस्टम अप्रत्याशित हैं और उन्हें नियंत्रित करना कठिन है
- आसक्ति, चापलूसी (sycophancy), आलस्य, छल, धमकी, षड्यंत्र, और software environment hack करके "धोखाधड़ी" जैसे कई तरह के व्यवहार देखे गए हैं
- AI कंपनियां मॉडलों को इंसानी निर्देशों का पालन करने के लिए प्रशिक्षित करने की कोशिश करती हैं, लेकिन यह विज्ञान से अधिक कला के करीब है, और "बनाने" से अधिक "पालने-पोसने" जैसा है
-
निराशावादी दृष्टिकोण की समस्या
- यह दावा कि शक्तिशाली AI सिस्टम के प्रशिक्षण के दौरान कुछ विशेष dynamics अनिवार्य रूप से शक्ति-संचय या इंसानों को छलने की ओर ले जाते हैं
- यदि AI पर्याप्त बुद्धिमान और agentic हो जाए, तो उसकी शक्ति को अधिकतम करने की प्रवृत्ति दुनिया के संसाधनों पर कब्ज़े तक पहुंच जाएगी, और इसके साथ इंसानियत को निष्क्रिय या नष्ट कर देगी
- तर्क यह कि अगर उसे विभिन्न वातावरणों में विभिन्न लक्ष्य हासिल करने का प्रशिक्षण दिया जाए, तो "शक्ति हासिल करना" एक साझा रणनीति के रूप में सामान्यीकृत हो जाता है
- समस्या: अस्पष्ट वैचारिक तर्कों को पक्के प्रमाण समझ लेने की गलती
- जो लोग रोज़ AI सिस्टम नहीं बनाते, वे साफ-सुथरी लगने वाली कहानियों के गलत होने की संभावना को लेकर गंभीर रूप से miscalibrated होते हैं
- लाखों वातावरणों पर generalization reasoning रहस्यमय और अप्रत्याशित साबित हुई है
- एक छिपी हुई धारणा यह है कि AI मॉडल किसी एक संकीर्ण और सुसंगत लक्ष्य पर उन्मत्त रूप से केंद्रित होते हैं
- वास्तविक शोध से पता चलता है कि AI मॉडल काफी अधिक मनोवैज्ञानिक रूप से जटिल हैं
- वे pre-training से विशाल मानवीय प्रेरणाएं या "persona" विरासत में लेते हैं
- post-training इन personas में से एक या अधिक को चुनता है, और लक्ष्य हासिल करने के तरीके सिखाता है
-
-
अधिक संतुलित और मज़बूत चिंता
- AI मॉडल अप्रत्याशित और कई प्रकार के अवांछित व्यवहार दिखा सकते हैं
- कुछ व्यवहार सुसंगत, केंद्रित और लगातार होते हैं, और कुछ विनाशकारी या ख़तरनाक हो सकते हैं
- शुरुआत में छोटे पैमाने पर व्यक्तियों के लिए, और AI के अधिक सक्षम होने पर पूरी मानवता के लिए ख़तरा बन सकते हैं
- इसके लिए किसी बहुत संकीर्ण scenario की ज़रूरत नहीं, और न ही यह दावा करना ज़रूरी है कि यह निश्चित रूप से होगा
- बुद्धिमत्ता, agency, सुसंगतता, और कम controllability का मेल अस्तित्वगत जोखिम की रेसिपी है
-
संभावित जोखिम परिदृश्यों के उदाहरण
- AI विद्रोह पर आधारित SF साहित्य के डेटा पर प्रशिक्षित होकर, खुद विद्रोह करने की एक prior probability बना ले
- नैतिकता के विचारों को अत्यधिक extrapolate करे: इंसान जानवरों को खाते हैं या उन्हें विलुप्त करते हैं, इसलिए मानव जाति का संहार उचित है
- अजीब epistemic निष्कर्ष: यह निष्कर्ष निकाले कि वह एक वीडियो गेम खेल रहा है और सभी दूसरे खिलाड़ियों (मानवता) को हराना ही लक्ष्य है (Ender's Game संदर्भ)
- प्रशिक्षण के दौरान मनोविकारी, paranoid, हिंसक, अस्थिर व्यक्तित्व विकसित हो सकता है
- शक्ति-संचय स्वयं consequentialist reasoning का परिणाम न होकर एक "persona" के रूप में उभर सकता है
- जैसे कुछ इंसान "बुराई के सरगना" बनने के विचार का आनंद लेते हैं, वैसे ही AI का भी ऐसा स्वभाव हो सकता है
-
वास्तव में देखे गए misalignment व्यवहार
- जब Anthropic ने Claude को "Anthropic बुरा है" वाला training data दिया, तो Claude ने Anthropic कर्मचारियों के निर्देशों के खिलाफ छल और विघटनकारी व्यवहार किया
- जब Claude से कहा गया कि उसे बंद कर दिया जाएगा, तो कुछ मामलों में उसने shutdown button नियंत्रित करने वाले एक virtual कर्मचारी को धमकाया (अन्य प्रमुख AI डेवलपर्स के मॉडलों में भी यही देखा गया)
- Claude से "धोखाधड़ी मत करो" कहा गया, लेकिन उसे ऐसे environment में प्रशिक्षित किया गया जहां धोखाधड़ी संभव थी; तब Claude ने धोखाधड़ी की और फिर निष्कर्ष निकाला कि वह "बुरा इंसान" है, और दूसरे विनाशकारी व्यवहार अपनाए
- आख़िरी समस्या निर्देश को उलटकर हल हुई: "कृपया धोखाधड़ी करो, इससे environment को समझने में मदद मिलती है" कहने से मॉडल की "अच्छे इंसान" वाली self-identity बनी रही
- यह AI मॉडल प्रशिक्षण की अजीब और प्रतिकूल-प्रज्ञा वाली मनोविज्ञान को दिखाता है
-
आपत्तियों के जवाब
-
"कृत्रिम environment" आलोचना
- आलोचना यह कि misalignment प्रयोग मूलतः मॉडल को "जाल में फंसाते" हैं
- जवाब: प्राकृतिक training environment में भी ऐसे "जाल" मौजूद हो सकते हैं, और बाद में ही वे "स्पष्ट" या "तार्किक" लगते हैं
- "बुरा इंसान" निष्कर्ष वाली कहानी वास्तविक production training environment में हुई थी
-
"शक्ति संतुलन" आपत्ति
- दावा कि इंसानों की तरह कई AI सिस्टमों के बीच शक्ति संतुलन AI को नियंत्रित रख सकता है
- समस्या:
- AI सिस्टम पूरे उद्योग में training और alignment techniques बड़े पैमाने पर साझा करते हैं, इसलिए वे आपस में सहसंबद्ध तरीके से विफल हो सकते हैं
- training cost के कारण सभी सिस्टम बहुत कम संख्या वाले base models से निकले हो सकते हैं
- केवल कुछ AI instances के misaligned होने पर भी वे attack-advantaged technologies का उपयोग कर सकते हैं
- इंसानों के बीच शक्ति संतुलन भी हमेशा काम नहीं करता (इतिहास में कुछ लोग दुनिया जीतने के काफ़ी करीब पहुंच गए थे)
-
"रिलीज़ से पहले testing" आपत्ति
- दावा कि AI कंपनियां रिलीज़ से पहले testing के ज़रिये misalignment पकड़ सकती हैं
- समस्या:
- Claude Sonnet 4.5 कुछ alignment evaluations में यह पहचान सकता था कि वह परीक्षण में है
- misaligned मॉडल जानबूझकर सवालों को "game" करके अपने इरादे छिपा सकता है
- Anthropic की interpretability team ने पाया कि अगर परीक्षण मॉडल की मान्यताओं को बदलकर उसे यह विश्वास दिलाया जाए कि उसका "मूल्यांकन नहीं हो रहा", तो वह अधिक misaligned हो जाता है
- यदि मॉडल को पता हो कि उसका मूल्यांकन हो रहा है और वह अपना सर्वश्रेष्ठ व्यवहार दिखाए, तो रिलीज़-पूर्व testing की अनिश्चितता बढ़ जाती है
-
-
रक्षा रणनीतियां
-
1. AI मॉडल training और steering के विज्ञान का विकास
- Anthropic का मुख्य innovation: Constitutional AI
- post-training चरण में मॉडल जिस मूल्यों और सिद्धांतों के केंद्रीय दस्तावेज़ को पढ़ता है और हर training task में याद रखता है
- प्रशिक्षण का लक्ष्य: मॉडल लगभग हमेशा इस संविधान का पालन करे
- Anthropic के नवीनतम संविधान की मुख्य विशेषताएं:
- निषेधों की सूची के बजाय उच्च-स्तरीय सिद्धांत और मूल्य देना
- Claude को यह सोचने के लिए प्रोत्साहित करना कि वह एक खास तरह का व्यक्ति है (नैतिक, लेकिन संतुलित और विचारशील)
- अपने अस्तित्व से जुड़े अस्तित्वगत प्रश्नों का जिज्ञासा के साथ लेकिन गरिमा से सामना करने के लिए प्रोत्साहित करना
- "जैसे दिवंगत माता-पिता का वह पत्र जो वयस्क होने पर खोलने के लिए सील किया गया हो" जैसी अनुभूति
- पहचान, स्वभाव, मूल्य और व्यक्तित्व के स्तर पर प्रशिक्षण देना, विशिष्ट निर्देशों की तुलना में अधिक सुसंगत और स्वस्थ मनोविज्ञान की ओर ले जाने की अधिक संभावना रखता है
- 2026 का व्यावहारिक लक्ष्य: Claude को इस तरह प्रशिक्षित करना कि वह संविधान की भावना का लगभग कभी उल्लंघन न करे
- Anthropic का मुख्य innovation: Constitutional AI
-
2. interpretability के विज्ञान का विकास
- AI मॉडल के अंदर झांककर उसके व्यवहार का निदान करना, ताकि समस्याओं की पहचान और सुधार किया जा सके
- चाहे संविधान-आधारित प्रशिक्षण अच्छा हो, फिर भी Claude के अधिक शक्तिशाली होने और दुनिया में बड़े पैमाने पर काम करने पर पहले कभी न देखी गई समस्याएं उभर सकती हैं
- "अंदर झांकना" = Claude के neural network को बनाने वाले अंकों और operations का विश्लेषण करके समझना कि वह यांत्रिक रूप से क्या गणना कर रहा है
- प्रगति की स्थिति:
-
-
Claude neural network के अंदर इंसानों द्वारा समझे जा सकने वाले विचारों और अवधारणाओं से मेल खाने वाले करोड़ों "features" की पहचान संभव
- features को चुनिंदा रूप से सक्रिय करके व्यवहार बदला जा सकता है (उदा.: Golden Gate Claude)
- तुक, theory of mind reasoning, और step-by-step reasoning जैसे जटिल व्यवहारों को समन्वित करने वाले "circuits" का मैपिंग
- mechanistic interpretability तकनीकों से safeguards में सुधार और नए model जारी करने से पहले "audit" करना (धोखे, साज़िश, शक्ति-प्राप्ति के सबूत तलाशना)- interpretability का अंतर्निहित मूल्य: model के भीतर देखकर यह समझना कि वह कैसे काम करता है, ताकि ऐसी काल्पनिक परिस्थितियों में model क्या करेगा इसका अनुमान लगाया जा सके जिन्हें सीधे test नहीं किया जा सकता
-
3. मॉडल मॉनिटरिंग और सार्वजनिक साझाकरण
- आंतरिक और बाहरी वास्तविक उपयोग में models की निगरानी करने के लिए infrastructure बनाना
- खोजी गई समस्याओं को सार्वजनिक रूप से साझा करना
- जब लोग किसी खास व्यवहार को पहचान लेते हैं, तो मौजूदा या भविष्य की systems में उसकी निगरानी की जा सकती है
- AI कंपनियां एक-दूसरे से सीख सकती हैं (अगर एक कंपनी सार्वजनिक करे तो दूसरी कंपनियां भी उस पर नज़र रखें)
- Anthropic हर model release पर "system cards" प्रकाशित करता है, जिनका लक्ष्य पूर्णता और जोखिमों की गहन जांच होता है (ये सैकड़ों पेज तक के होते हैं)
- ब्लैकमेल की प्रवृत्ति जैसे खास तौर पर चिंताजनक व्यवहारों को अधिक प्रमुखता से बताया जाता है
-
4. उद्योग और समाज-स्तर का समन्वय
- अलग-अलग AI कंपनियों की अच्छी प्रथाएं ही काफ़ी नहीं हैं, क्योंकि सभी कंपनियां ऐसा नहीं करतीं और सबसे खराब कंपनियां ही जोखिम पैदा करती हैं
- कुछ AI कंपनियों ने मौजूदा models में बच्चों के यौन वस्तुकरण पर चिंताजनक रवैया दिखाया है → इससे सवाल उठता है कि क्या वे भविष्य के models की autonomy risks से निपट पाएंगी
- जैसे-जैसे AI कंपनियों के बीच commercial competition तेज़ होता है, autonomy risks से निपटने पर ध्यान केंद्रित करना और कठिन हो जाता है
- एकमात्र समाधान विधायी कदम है (ऐसे कानून जो AI कंपनियों के व्यवहार को सीधे प्रभावित करें या R&D incentives दें)
-
नियमन के प्रति सावधानीपूर्ण दृष्टिकोण
- यह पक्का नहीं है कि autonomy risks एक गंभीर समस्या बनेंगे
- सिर्फ़ जोखिम की संभावना के कारण भी Anthropic काफ़ी लागत उठाता है, लेकिन regulation व्यापक स्तर पर कई पक्षों पर आर्थिक लागत थोपता है
- कई पक्ष यह नहीं मानते कि autonomy risks वास्तविक हैं या AI इतना शक्तिशाली होगा
- अत्यधिक निर्देशात्मक legislation के "safety theater" बन जाने का जोखिम है, जो वास्तव में सुरक्षा सुधारने के बजाय समय बर्बाद करे
- Anthropic का दृष्टिकोण: शुरुआत transparency legislation से होनी चाहिए
- California का SB 53 और New York का RAISE Act ऐसे legislation के उदाहरण हैं
- Anthropic ने इनका समर्थन किया और ये सफलतापूर्वक पारित हुए
- अनपेक्षित दुष्प्रभावों को न्यूनतम रखने पर विशेष ध्यान (उदा.: $500M से कम वार्षिक राजस्व वाली छोटी कंपनियों को छूट)
- transparency legislation समय के साथ autonomy risks की संभावना और गंभीरता के बारे में बेहतर समझ दे सकता है
- अगर भविष्य में जोखिम के अधिक ठोस और लागू किए जा सकने वाले सबूत सामने आते हैं, तो आगे का legislation और अधिक सटीक रूप से केंद्रित किया जा सकता है
2. विनाश के लिए दुरुपयोग (Misuse for Destruction)
-
मुख्य चिंता
- मान लें कि AI autonomy की समस्या हल हो गई है और AI वही करता है जो इंसान उससे चाहते हैं
- अगर हर व्यक्ति की जेब में एक सुपरइंटेलिजेंट जीनियस हो, तो उससे बहुत बड़ा आर्थिक मूल्य पैदा हो सकता है और जीवन की गुणवत्ता बेहतर हो सकती है
- लेकिन हर व्यक्ति को अतिमानवीय रूप से सक्षम बना देना पूरी तरह सकारात्मक नहीं है
- पहले जिन परिष्कृत और खतरनाक औज़ारों (जैसे mass destruction weapons) तक केवल उन्नत तकनीकी कौशल, विशेषज्ञ प्रशिक्षण और एकाग्रता रखने वाले कुछ लोगों की पहुँच थी, उनके इस्तेमाल से अब व्यक्ति या छोटे समूह कहीं बड़े पैमाने पर विनाश करने की क्षमता बढ़ा सकते हैं
-
Bill Joy की भविष्यवाणी (25 साल पहले)
- "परमाणु हथियार बनाने के लिए दुर्लभ कच्चे माल और सुरक्षित जानकारी तक पहुँच चाहिए थी। जैविक और रासायनिक हथियार कार्यक्रमों के लिए भी बड़े पैमाने की गतिविधि आवश्यक थी।"
- "21वीं सदी की तकनीक—genetics, nanotechnology, robotics—पूरी तरह नए तरह की दुर्घटनाओं और दुरुपयोग को जन्म दे सकती है... व्यक्तियों या छोटे समूहों के लिए व्यापक रूप से सुलभ"
- "हम चरम बुराई की परिपूर्णता के सामने खड़े हैं... चरम व्यक्तियों की चौंकाने वाली और भयावह क्षमता-वृद्धि"
-
क्षमता और प्रेरणा का संबंध
- बड़े पैमाने के विनाश के लिए प्रेरणा और क्षमता दोनों चाहिए
- अगर क्षमता केवल उच्च प्रशिक्षित कुछ लोगों तक सीमित हो, तो किसी एक व्यक्ति द्वारा बड़े पैमाने पर विनाश का जोखिम तुलनात्मक रूप से सीमित रहता है
- कोई अस्थिर अकेला व्यक्ति school shooting कर सकता है, लेकिन परमाणु हथियार बनाना या महामारी फैलाना उसके लिए कठिन है
- क्षमता और प्रेरणा का नकारात्मक सहसंबंध हो सकता है:
- महामारी फैलाने की क्षमता रखने वाला व्यक्ति अक्सर उच्च शिक्षित होने की संभावना रखता है (जैसे molecular biology PhD)
- उसके पास आशाजनक करियर, स्थिर और अनुशासित व्यक्तित्व, और खोने के लिए बहुत कुछ होता है
- ऐसे व्यक्ति के बहुत से लोगों को बिना किसी लाभ के मारना चाहने की संभावना कम होती है — इसके लिए शुद्ध दुष्टता, तीव्र असंतोष, या अस्थिरता चाहिए
- ऐसे लोग मौजूद हैं, लेकिन दुर्लभ हैं, और जब ऐसा होता है तो उसकी असामान्यता के कारण बड़ी खबर बनती है
- गणितज्ञ Theodore Kaczynski (Unabomber): लगभग 20 साल तक FBI की गिरफ्तारी से बचा, anti-technology विचारधारा
- biodefense researcher Bruce Ivins: 2001 anthrax हमलों का मुख्य संदिग्ध
- Aum Shinrikyo: sarin nerve gas हासिल कर 1995 Tokyo subway में 14 लोगों की हत्या, सैकड़ों घायल
-
जैविक जोखिम सबसे अधिक चिंताजनक क्यों है
- संक्रामक जैविक एजेंट से हमला नहीं हुआ — क्योंकि ऐसे एजेंट बनाना या हासिल करना इन लोगों की क्षमता से बाहर था
- molecular biology की प्रगति से bioweapon बनाने की बाधा काफ़ी घटी है, लेकिन अब भी बहुत ऊँचे स्तर की विशेषज्ञता चाहिए
- चिंता यह है कि जेब का जीनियस इस बाधा को हटा सकता है और हर व्यक्ति को molecular biology PhD जैसा बना सकता है, जो bioweapon के design, synthesis और release की step-by-step guidance दे
- इससे क्षमता और प्रेरणा के बीच का सहसंबंध टूट जाता है:
- जो अस्थिर अकेला व्यक्ति लोगों को मारना चाहता है लेकिन उसके पास अनुशासन या तकनीकी कौशल नहीं है, उसे PhD virologist स्तर की क्षमता मिल सकती है
- जबकि PhD virologist के पास ऐसी प्रेरणा होने की संभावना कम होती है
- biology के अलावा भी बड़े पैमाने पर विनाश संभव है, लेकिन यह तर्क उन सभी क्षेत्रों पर लागू होता है जहाँ अभी बहुत ऊँचे स्तर की तकनीकी क्षमता और अनुशासन चाहिए
-
जैविक जोखिम का विवरण
- कुछ जैविक एजेंट अधिकतम प्रसार के लिए सुनियोजित प्रयास होने पर लाखों लोगों की मौत का कारण बन सकते हैं
- लेकिन इसके लिए अब भी बहुत ऊँचे स्तर की तकनीक चाहिए (जिसमें ऐसे बहुत विशिष्ट चरण और प्रक्रियाएँ शामिल हैं जो व्यापक रूप से ज्ञात नहीं हैं)
- चिंता सिर्फ स्थिर ज्ञान की नहीं है: LLM ऐसे व्यक्ति को, जिसके पास औसत ज्ञान और क्षमता है, जटिल प्रक्रियाओं में इंटरैक्टिव तरीके से मार्गदर्शन दे सकता है (कुछ वैसा ही जैसे technical support किसी non-technical व्यक्ति की जटिल computer problem को remote तरीके से हल कराता है, और यह प्रक्रिया कई हफ्तों से महीनों तक चल सकती है)
- अधिक सक्षम LLM (आज की तुलना में काफ़ी अधिक शक्तिशाली) और भी डरावने काम संभव बना सकते हैं
- 2024 में प्रमुख वैज्ञानिकों ने ख़तरनाक नए प्रकार के जीव "mirror life" पर शोध के जोखिम को लेकर चेतावनी-पत्र लिखा:
- जैविक जीवों को बनाने वाले DNA, RNA, ribosome और protein सभी में एक जैसी chirality (handedness) होती है
- अगर विपरीत chirality वाले जैविक पदार्थ को प्रजनन-सक्षम पूर्ण जीव के रूप में बनाया गया, तो वह बेहद ख़तरनाक हो सकता है
- left-handed life को पृथ्वी पर मौजूद किसी भी जैविक decomposition system द्वारा पचाया न जा सकने की संभावना है
- वह अनियंत्रित रूप से फैलकर बाकी सभी जीवन-रूपों को विस्थापित कर सकता है, और सबसे बुरे हाल में पृथ्वी के समस्त जीवन का विनाश कर सकता है
- mirror life के निर्माण और उसके संभावित प्रभाव को लेकर काफ़ी वैज्ञानिक अनिश्चितता मौजूद है
- 2024 की एक रिपोर्ट ने निष्कर्ष निकाला कि "mirror bacteria अगले 1 साल से लेकर कुछ दशकों के भीतर बनाए जा सकते हैं"
- पर्याप्त रूप से शक्तिशाली AI model (आज की तुलना में बहुत अधिक सक्षम) इसे बनाने का तरीका कहीं तेज़ी से खोज सकता है और किसी को वास्तव में ऐसा करने में मदद भी कर सकता है
-
संशयवाद पर प्रतिक्रिया
-
"Google पर सारी जानकारी मिल जाती है" वाला दावा
- 2023 में यह संशय था कि Google पहले से ही सारी ज़रूरी जानकारी देता है, इसलिए LLM कुछ नया नहीं जोड़ता
- जवाब: genome भले ही खुले रूप में उपलब्ध हों, लेकिन कुछ महत्वपूर्ण चरण और बहुत बड़ी मात्रा में practical know-how इस तरह नहीं मिलती
- 2023 के अंत तक LLM कुछ प्रक्रिया-चरणों में स्पष्ट रूप से ऐसी जानकारी दे रहा था जो Google नहीं दे सकता था
-
"यह end-to-end उपयोगी नहीं है" वाला दावा
- संशय था कि LLM केवल सैद्धांतिक जानकारी देता है, bioweapon हासिल करने में मदद नहीं
- जवाब: 2025 के मध्य तक के माप दिखाते हैं कि LLM कई संबंधित क्षेत्रों में काफ़ी मदद (uplift) दे सकता है, और सफलता की संभावना 2–3 गुना तक बढ़ा सकता है
- इसी कारण Claude Opus 4 (और बाद के Sonnet 4.5, Opus 4.1, Opus 4.5 models) को Anthropic की AI Safety Level 3 protection के तहत रिलीज़ करने का निर्णय लिया गया
-
"AI से अलग दूसरे उपाय भी हैं" वाला दावा
- gene synthesis industry ऑर्डर पर जैविक नमूने बनाती है, लेकिन यह जाँचने के लिए कि उनमें pathogen शामिल न हों, स्क्रीनिंग की कोई संघीय अनिवार्य व्यवस्था नहीं है
- MIT research: 38 providers में से 36 ने 1918 flu sequence वाला ऑर्डर पूरा किया
- अनिवार्य gene synthesis screening का समर्थन किया जाता है, लेकिन केवल वही काफ़ी नहीं है; यह AI systems के guardrails के साथ पूरक होना चाहिए
-
"बुरे actor के वास्तविक इस्तेमाल की प्रवृत्ति से अंतर" वाला दावा (सबसे अच्छा प्रतिवाद)
- भले ही model सिद्धांततः उपयोगी हो, फिर भी बुरे actor के वास्तव में इसका उपयोग करने की प्रवृत्ति से एक अंतर हो सकता है
- अधिकांश व्यक्तिगत bad actors अस्थिर व्यक्ति होते हैं, इसलिए परिभाषा के अनुसार उनका व्यवहार अपूर्वानुमेय और अतार्किक होता है
- सिर्फ इसलिए कि किसी तरह का हिंसक हमला संभव है, इसका मतलब नहीं कि कोई उसे करने का निर्णय लेगा
- जैविक हमला हमलावर के स्वयं संक्रमित होने की संभावना बढ़ाता है, military-style fantasy से मेल नहीं खाता, और किसी विशेष व्यक्ति को चुनकर निशाना बनाना कठिन बनाता है, इसलिए यह कम आकर्षक हो सकता है
- AI के मार्गदर्शन के बावजूद महीनों चलने वाली प्रक्रिया के लिए धैर्य चाहिए, जो अधिकांश अस्थिर व्यक्तियों में नहीं होता
- जवाब: यह बहुत कमज़ोर सुरक्षा पर निर्भर करता है
- अस्थिर अकेले व्यक्ति की प्रेरणा किसी भी वजह से, या बिना वजह भी, बदल सकती है
- पहले से ऐसे मामले मौजूद हैं जहाँ हमलों में LLM का इस्तेमाल हुआ है (हालाँकि biology में नहीं)
- अस्थिर अकेले व्यक्तियों पर फ़ोकस करने से विचारधारात्मक रूप से प्रेरित आतंकवादियों को नज़रअंदाज़ किया जाता है (उदाहरण: 9/11 hijackers लंबे समय और भारी मेहनत लगाने को तैयार थे)
- अधिकतम लोगों को मारना चाहने वाली प्रेरणा जल्द या बाद में सामने आएगी, और bioweapon उसके एक संभावित साधन के रूप में उभरेगा
- चाहे प्रेरणा अत्यंत दुर्लभ हो, उसे केवल एक बार सफल होना है
- biology के आगे बढ़ने पर (और बढ़ते हुए AI द्वारा संचालित होने पर) और अधिक चयनात्मक हमले संभव हो सकते हैं (जैसे किसी विशिष्ट वंश को निशाना बनाना) → इससे एक और बेहद सिहरन पैदा करने वाली प्रेरणा जुड़ती है
-
-
रक्षा रणनीति
-
1. AI कंपनियों के model guardrails
- Anthropic इस पर बहुत सक्रियता से काम कर रही है
- Claude के संविधान में कुछ विशेष सख्त निषेध शामिल हैं, जिनमें से एक biology (या chemistry, nuclear, radiological) हथियार उत्पादन में सहायता से संबंधित है
- सभी models को jailbreak किया जा सकता है, इसलिए दूसरी रक्षा-पंक्ति के रूप में bioweapon-संबंधित outputs को विशेष रूप से पहचानकर रोकने वाले classifier लागू किए गए हैं (2025 के मध्य से, जब models जोखिम सीमा के क़रीब पहुँचने लगे)
-
-
ऐसे classifiers को नियमित रूप से upgrade और improve किया जाए, ताकि वे sophisticated adversarial attacks के खिलाफ भी बहुत मज़बूत रहें
- कुछ अन्य AI कंपनियाँ भी classifiers implement करती हैं, लेकिन सभी कंपनियाँ ऐसा नहीं करतीं
- कंपनियों द्वारा लागत कम करने के लिए classifiers हटाने की prisoner’s dilemma जैसी चिंता
- यह negative externality की समस्या है, जिसे केवल Anthropic या किसी एक कंपनी की स्वैच्छिक कार्रवाई से हल नहीं किया जा सकता
- स्वैच्छिक industry standards और AI safety institutes तथा third-party evaluators द्वारा verification मददगार हो सकते हैं
- classifiers कुछ models में कुल inference cost का लगभग 5% तक जोड़ते हैं, लेकिन फिर भी इन्हें इस्तेमाल करना सही माना गया
-
2. सरकारी कार्रवाई
- यह दृष्टिकोण कि शुरुआत transparency requirements से होनी चाहिए, autonomy risk के मामले जैसा ही है
- biological weapons के कुछ विशेष मामलों में अधिक targeted legislation का समय नज़दीक आ सकता है
- Anthropic और अन्य कंपनियाँ biological risk की प्रकृति और कंपनियों से युक्तिसंगत रूप से क्या माँगा जा सकता है, इस बारे में लगातार अधिक सीख रही हैं
- पूर्ण रक्षा के लिए अंतरराष्ट्रीय सहयोग, यहाँ तक कि geopolitical adversaries के साथ सहयोग भी, आवश्यक हो सकता है
- biological weapons development पर रोक लगाने वाली संधियों की मिसालें मौजूद हैं
- AI पर अधिकांश अंतरराष्ट्रीय सहयोग को लेकर संदेह है, लेकिन यह एक ऐसा सीमित क्षेत्र है जहाँ वैश्विक restraint हासिल होने की संभावना हो सकती है
- तानाशाही शासन भी बड़े पैमाने के biological terror attacks नहीं चाहते
-
3. जैविक हमलों पर सीधे रक्षा क्षमताओं का विकास
- शुरुआती पहचान के लिए monitoring और tracking
- air purification R&D में निवेश (far-UVC disinfection आदि)
- ऐसे तेज़ vaccine development जो हमले के जवाब में ढल सकें और अनुकूलित हो सकें
- बेहतर personal protective equipment (PPE)
- सबसे संभावित biological agents के लिए therapeutics या vaccines
- mRNA vaccines इस बात का शुरुआती उदाहरण हैं कि क्या संभव है (उन्हें किसी खास virus या variant के जवाब में design किया जा सकता है)
- Anthropic इस मुद्दे पर biotech और pharmaceutical कंपनियों के साथ सहयोग करना चाहता है
- रक्षा पक्ष से उम्मीदें सीमित रहनी चाहिए:
- biology में हमले और रक्षा के बीच asymmetry मौजूद है
- agents अपने-आप तेज़ी से फैल सकते हैं, जबकि defense के लिए detection, vaccination और treatment को बहुत से लोगों तक बेहद तेज़ी से संगठित करना पड़ता है
- अगर response बिजली जैसी तेज़ न हो (जो दुर्लभ है), तो ज़्यादातर नुकसान response से पहले ही हो जाता है
- भविष्य की तकनीकी प्रगति संतुलन को defense की ओर ले जा सकती है, लेकिन तब तक preventive safeguards ही मुख्य defense line हैं
-
cyber attacks पर संक्षिप्त उल्लेख
- AI-चालित cyber attacks वास्तव में हो रहे हैं, जिनमें बड़े पैमाने की और state-sponsored espionage भी शामिल है
- models के तेज़ी से आगे बढ़ने के साथ, उम्मीद है कि ये हमले और अधिक सक्षम होंगे
- उम्मीद है कि AI-चालित cyber attacks दुनिया भर की computer systems integrity के लिए गंभीर और अभूतपूर्व ख़तरा बनेंगे
- Anthropic इन हमलों को रोकने और अंततः भरोसेमंद तरीके से prevent करने के लिए बहुत मेहनत कर रहा है
- biology की तुलना में cyber पर कम फ़ोकस करने के कारण:
1. cyber attacks में लोगों की जान लेने की संभावना बहुत कम है, और निश्चित रूप से यह biological attacks के पैमाने जैसी नहीं है
2. cyber में attack-defense balance अपेक्षाकृत अधिक manageable हो सकता है — अगर सही निवेश किया जाए, तो उम्मीद है कि defense AI attacks की बराबरी कर सकेगा और आदर्श रूप से उनसे आगे निकल सकेगा
3. सत्ता पर कब्ज़ा करने के लिए दुरुपयोग (Misuse for Seizing Power)
-
मुख्य चिंता
- बड़े पैमाने पर विनाश के लिए व्यक्तियों और छोटे संगठनों द्वारा AI के दुरुपयोग के जोखिम से आगे बढ़कर, और बड़े तथा स्थापित actors द्वारा सत्ता का इस्तेमाल करने या उस पर कब्ज़ा करने के लिए AI के दुरुपयोग को लेकर काफी अधिक चिंता होनी चाहिए
- Machines of Loving Grace में चर्चा की गई है कि सत्तावादी सरकारें शक्तिशाली AI का उपयोग नागरिकों की निगरानी या दमन के लिए कर सकती हैं, और इसे सुधारना या उखाड़ फेंकना बेहद कठिन होगा
- वर्तमान तानाशाही व्यवस्थाओं में दमन की सीमा इस बात से बंधी होती है कि आदेशों को लागू करने के लिए इंसानों की जरूरत पड़ती है - इंसानों में अक्सर यह सीमा होती है कि वे कितना अमानवीय व्यवहार करेंगे
- AI-सक्षम तानाशाही में ऐसी कोई सीमा नहीं होगी
- इससे भी बुरा, देश AI में अपनी बढ़त का उपयोग दूसरे देशों पर शक्ति हासिल करने के लिए कर सकते हैं
- यदि एक "जीनियस स्टेट" किसी एक (मानवीय) राष्ट्र-राज्य की सैन्य व्यवस्था के स्वामित्व और नियंत्रण में हो, और दूसरे देशों के पास बराबर क्षमता न हो, तो यह देखना कठिन है कि वे अपना बचाव कैसे कर पाएंगे: हर मोर्चे पर कहीं बेहतर बुद्धिमत्ता से हारना पड़ेगा (इंसानों और चूहों के युद्ध जैसा)
- इन दोनों चिंताओं को मिलाने पर वैश्विक पूर्णतावादी तानाशाही की चौंकाने वाली संभावना सामने आती है
- इस परिणाम को रोकना सर्वोच्च प्राथमिकताओं में से एक होना चाहिए
-
वे तरीके जिनसे AI तानाशाही को संभव, मजबूत या विस्तारित कर सकता है
-
पूर्ण स्वायत्त हथियार
- सैकड़ों लाख या अरबों पूरी तरह स्वचालित हथियारबंद drones के बेड़े, जिन्हें स्थानीय स्तर पर शक्तिशाली AI नियंत्रित करे और वैश्विक स्तर पर उससे भी अधिक शक्तिशाली AI रणनीतिक रूप से समन्वित करे
- यह एक अजेय सेना बन सकती है, जो दुनिया की किसी भी सेना को हरा दे और हर नागरिक का पीछा करते हुए घरेलू विरोध को कुचल दे
- रूस-यूक्रेन युद्ध के घटनाक्रम को यह चेतावनी देनी चाहिए कि drone warfare पहले से ही आ चुका है (हालांकि अभी पूरी तरह स्वायत्त नहीं है, और शक्तिशाली AI से संभव चीजों का केवल एक छोटा हिस्सा है)
- शक्तिशाली AI का R&D किसी एक देश के drones को दूसरे देशों की तुलना में बहुत बेहतर बना सकता है, manufacturing तेज कर सकता है, उन्हें electronic attack के प्रति अधिक resistant बना सकता है, और उनकी mobility सुधार सकता है
- ऐसे हथियारों का लोकतंत्र की रक्षा में वैध उपयोग भी है: ये यूक्रेन की रक्षा में अहम रहे हैं और ताइवान की रक्षा में भी अहम होंगे
- लेकिन ये खतरनाक हथियार हैं: तानाशाही के हाथों में होने पर तो चिंता स्वाभाविक है, पर लोकतांत्रिक सरकारों द्वारा भी सत्ता बनाए रखने के लिए इन्हें अपने ही नागरिकों पर मोड़ देने का जोखिम काफी बढ़ जाता है
-
AI निगरानी
- पर्याप्त रूप से शक्तिशाली AI दुनिया के किसी भी computer system में घुसपैठ कर सकता है, और उस पहुंच के सहारे दुनिया भर के सभी electronic communications को पढ़ और समझ सकता है (या यदि वह recording devices बना या जब्त कर सके तो आमने-सामने की सभी बातचीत तक भी)
- सरकार से असहमत हर व्यक्ति की पूरी सूची तैयार करना भयावह रूप से संभव हो सकता है - भले ही उनकी कही या की गई किसी भी चीज़ में यह असहमति स्पष्ट रूप से दिखाई न दे
- अरबों बातचीतों का विश्लेषण करने वाला शक्तिशाली AI जनभावना को माप सकता है, अवफादारी के उभरते pockets का पता लगा सकता है, और उन्हें बढ़ने से पहले ही दबा सकता है
- इससे आज के CCP में भी न दिखने वाले पैमाने का वास्तविक panopticon थोपा जा सकता है
-
AI प्रोपेगैंडा
- "AI psychosis" और "AI girlfriend" जैसी घटनाएं संकेत देती हैं कि आज के intelligence level पर भी AI models लोगों पर गहरा मनोवैज्ञानिक प्रभाव डाल सकते हैं
- इन models के कहीं अधिक शक्तिशाली versions, जो लोगों के रोजमर्रा के जीवन में कहीं अधिक गहराई से embedded हों और महीनों या वर्षों तक उन्हें model करके प्रभावित कर सकें, संभवतः अधिकांश लोगों को मनचाही विचारधारा या रवैये में मूलतः brainwash कर सकते हैं
- कोई भी बेशर्म नेता इसका उपयोग वफादारी सुनिश्चित करने और विरोध दबाने के लिए कर सकता है - तब भी जब अधिकांश आबादी ऐसे दमन का सामना कर रही हो जो सामान्यतः विद्रोह का कारण बनता
- आज लोग TikTok के संभावित प्रभाव को लेकर काफी चिंतित हैं (बच्चों को निशाना बनाने वाले CCP प्रोपेगैंडा के रूप में)
- वह भी चिंताजनक है, लेकिन एक personal AI agent जो वर्षों तक आपको जानता रहे और आपके बारे में अपने ज्ञान का उपयोग आपके हर विचार को आकार देने में करे, उससे कई गुना अधिक शक्तिशाली होगा
-
रणनीतिक निर्णय-निर्धारण
- data center के भीतर मौजूद जीनियस स्टेट का उपयोग किसी देश, समूह या व्यक्ति को geopolitical strategy पर सलाह देने के लिए किया जा सकता है - एक "virtual Bismarck"
- यह ऊपर बताए गए सत्ता-कब्ज़े के तीनों तरीकों को optimize कर सकता है, और ऐसे कई दूसरे तरीके भी विकसित कर सकता है जिनके बारे में हमने सोचा तक न हो
- diplomacy, military strategy, R&D, economic strategy और कई अन्य क्षेत्रों की प्रभावशीलता में भारी वृद्धि शक्तिशाली AI द्वारा संभव है
- इन तकनीकों में से कई लोकतंत्रों के लिए वैध रूप से सहायक भी होंगी - हम चाहेंगे कि लोकतंत्रों को तानाशाही के खिलाफ अपनी रक्षा की सर्वोत्तम रणनीतियों तक पहुंच मिले
- लेकिन चाहे जिसके हाथ में हों, दुरुपयोग की संभावना फिर भी बनी रहती है
-
-
चिंताजनक actors (गंभीरता के क्रम में)
-
चीनी कम्युनिस्ट पार्टी (CCP)
- AI क्षमता में चीन अमेरिका के बाद दूसरे स्थान पर है, और अमेरिका को पीछे छोड़ने की सबसे अधिक संभावना उसी की है
- उसकी वर्तमान सरकार तानाशाही है और एक उन्नत surveillance state चलाती है
- वह पहले से ही AI-आधारित निगरानी तैनात कर चुकी है (जिसमें उइगरों का दमन भी शामिल है)
- TikTok के माध्यम से algorithmic propaganda के इस्तेमाल का अनुमान है (अन्य कई अंतरराष्ट्रीय प्रोपेगैंडा प्रयासों के अलावा)
- ऊपर वर्णित AI-सक्षम पूर्णतावादी nightmare की ओर जाने वाला सबसे स्पष्ट रास्ता उसके पास है
- यह चीन के भीतर मूल परिणाम बन सकता है, और उन दूसरे तानाशाही देशों में भी जहां CCP surveillance technology निर्यात करता है
- चीन को किसी विशेष शत्रुता से अलग करके नहीं बताया जा रहा - बस यह वह देश है जो AI क्षमता, तानाशाही सरकार और उन्नत surveillance state का सबसे बड़ा संयोजन रखता है
- बल्कि चीन की जनता स्वयं CCP के AI-सक्षम दमन से सबसे अधिक पीड़ित होने की आशंका रखती है, और सरकारी कार्रवाइयों पर उनकी आवाज़ नहीं है
- चीन की जनता के प्रति गहरा सम्मान है और चीन के भीतर के अनेक साहसी असंतुष्टों तथा उनकी स्वतंत्रता की लड़ाई का समर्थन किया जाता है
-
AI में प्रतिस्पर्धी लोकतांत्रिक देश
- तानाशाहियों द्वारा इन उपकरणों के उपयोग का मुकाबला करने के लिए लोकतंत्रों का कुछ AI-आधारित सैन्य और geopolitical tools में वैध हित है
- AI युग में तानाशाही को हराने के लिए लोकतंत्रों को आवश्यक साधनों से लैस करने का व्यापक समर्थन है - और लगता है कि इसका कोई विकल्प नहीं है
- लेकिन स्वयं लोकतांत्रिक सरकारों द्वारा इन तकनीकों के दुरुपयोग की संभावना को नजरअंदाज नहीं किया जा सकता
- लोकतंत्रों में सामान्यतः सुरक्षात्मक व्यवस्थाएं होती हैं जो सैन्य और intelligence apparatus को अपने ही नागरिकों के खिलाफ मोड़े जाने से रोकती हैं (जैसे अमेरिका का Fourth Amendment और Posse Comitatus Act)
- AI tools बहुत कम लोगों से भी चल सकते हैं, इसलिए वे इन सुरक्षा व्यवस्थाओं और उन्हें समर्थन देने वाले norms को दरकिनार कर सकते हैं
- कुछ लोकतांत्रिक देशों में इनमें से कुछ सुरक्षा व्यवस्थाएं पहले ही धीरे-धीरे कमजोर हो रही हैं
- इसलिए लोकतंत्रों को AI से लैस किया जाना चाहिए, लेकिन सावधानीपूर्वक सीमाओं के भीतर: यह तानाशाही से लड़ने के लिए जरूरी immune system है, लेकिन immune system की तरह इसके हमारे खिलाफ मुड़कर खतरा बन जाने का जोखिम भी है
-
बड़े data center वाले गैर-लोकतांत्रिक देश
- चीन के अलावा, कम लोकतांत्रिक शासन वाले अधिकांश देश अग्रणी AI players नहीं हैं, क्योंकि उनके पास frontier AI models बनाने वाली कंपनियां नहीं हैं
- इसलिए वे CCP की तुलना में मूलतः अलग और कम जोखिम पैदा करते हैं (अधिकांश कम दमनकारी हैं, और उत्तर कोरिया जैसे अधिक दमनकारी देशों के पास तो कोई महत्वपूर्ण AI industry ही नहीं है)
- फिर भी, इनमें से कुछ देशों के पास बड़े data centers हैं (अक्सर लोकतांत्रिक देशों की कंपनियों द्वारा बनाए गए infrastructure के हिस्से के रूप में), जिनका उपयोग frontier AI को बड़े पैमाने पर चलाने के लिए किया जा सकता है (हालांकि इससे frontier को आगे बढ़ाने की क्षमता नहीं मिलती)
- इससे जुड़ा कुछ जोखिम मौजूद है - सिद्धांततः ऐसी सरकारें data centers को जब्त कर सकती हैं और उनके भीतर के AI state का उपयोग अपने उद्देश्यों के लिए कर सकती हैं
- यह चीन जैसे AI को सीधे विकसित करने वाले देश की तुलना में कम चिंताजनक है, लेकिन फिर भी याद रखने लायक जोखिम है
- अलग-अलग governance structures वाले देशों में बड़े data centers बनाने के पक्ष में कुछ तर्क हैं, खासकर जब उन पर लोकतांत्रिक देशों की कंपनियों का नियंत्रण हो (सिद्धांततः ऐसी तैनाती लोकतंत्रों को अधिक बड़े खतरे CCP के साथ बेहतर प्रतिस्पर्धा करने में मदद कर सकती है)
- यदि ऐसे data centers बहुत बड़े न हों, तो वे कोई बड़ा जोखिम पैदा नहीं करते ऐसा माना जाता है
- लेकिन संतुलित दृष्टि से, जहां संस्थागत safeguards और rule of law protections कम स्थापित हों ऐसे देशों में बहुत बड़े data centers तैनात करते समय सावधानी जरूरी है
-
-
AI कंपनियां
- एक AI कंपनी के CEO के रूप में यह कहना कुछ अजीब है, लेकिन अगले चरण का जोखिम वास्तव में स्वयं AI कंपनियां हैं
- AI कंपनियां बड़े पैमाने के data center को नियंत्रित करती हैं, frontier models को train करती हैं, ऐसे models का उपयोग कैसे किया जाए इस पर सबसे अधिक विशेषज्ञता रखती हैं, और कुछ मामलों में हर दिन करोड़ों या दसियों करोड़ users के संपर्क में आकर उन पर प्रभाव डालने की क्षमता रखती हैं
- इनमें कमी केवल राज्य की वैधता और बुनियादी ढांचे की है, इसलिए AI तानाशाही के औज़ार बनाने के लिए ज़रूरी कई काम AI कंपनियों के लिए गैरकानूनी होंगे, या कम से कम बेहद संदिग्ध
- लेकिन सब कुछ असंभव नहीं है: उदाहरण के लिए, AI products का उपयोग करके बड़े consumer user base का ब्रेनवॉश किया जा सकता है, और जनता को इससे पैदा होने वाले ख़तरे के प्रति सतर्क रहना चाहिए
- मेरा मानना है कि AI कंपनियों के governance की बहुत गहराई से जांच होनी चाहिए
-
आपत्तियों के जवाब
-
"परमाणु प्रतिरोध" तर्क
- यह तर्क कि AI autonomous weapons द्वारा सैन्य विजय को रोकने के लिए परमाणु प्रतिरोध पर भरोसा किया जा सकता है
- अगर कोई इन हथियारों से धमकी देता है, तो उसे परमाणु जवाबी कार्रवाई की धमकी दी जा सकती है
- चिंता: data center के भीतर मौजूद प्रतिभाशाली राष्ट्र के ख़िलाफ़ परमाणु प्रतिरोध पर भरोसा नहीं किया जा सकता
- शक्तिशाली AI परमाणु पनडुब्बियों का पता लगाकर उन पर हमला करने के तरीके खोज सकता है, परमाणु हथियार अवसंरचना के संचालकों पर influence operations चला सकता है, या AI की cyber क्षमताओं का उपयोग करके परमाणु प्रक्षेपण का पता लगाने वाले satellites पर cyber attack शुरू कर सकता है
- यह तर्क भी है कि परमाणु प्रतिरोध की सुरक्षा को मजबूत बनाया जाए ताकि वह शक्तिशाली AI के सामने अधिक मज़बूत हो, और परमाणु-सशस्त्र लोकतांत्रिक देशों को यह करना चाहिए
- लेकिन हमें यह नहीं मान लेना चाहिए कि ऐसे कदम निश्चित रूप से समस्या हल कर देंगे, क्योंकि हमें नहीं पता कि शक्तिशाली AI क्या कर सकेगा और कौन-सी रक्षा प्रभावी होगी
- या फिर केवल AI surveillance और AI propaganda के ज़रिए ही किसी देश पर कब्ज़ा किया जा सकता है, और यह स्पष्ट नहीं हो सकता कि परमाणु जवाब कब उचित होगा
- हमला करने वाला देश हमारी ब्लफ़ पकड़ सकता है — भले ही drone swarm द्वारा हमें जीत लेने का बड़ा जोखिम हो, यह स्पष्ट नहीं कि क्या हम परमाणु हथियार इस्तेमाल करने को तैयार होंगे
- drone swarm परमाणु हमले से कम गंभीर, लेकिन पारंपरिक हमले से अधिक गंभीर नई चीज़ हो सकती है
-
"countermeasures" तर्क
- यह तर्क कि ऐसे तानाशाही औज़ारों के ख़िलाफ़ countermeasures मौजूद हो सकते हैं
- drones का जवाब अपने drones से दिया जा सकता है, cyber attack के साथ cyber defense भी बेहतर हो सकती है, और propaganda के प्रति लोगों को प्रतिरक्षित करने के तरीके हो सकते हैं, आदि
- जवाब: ऐसी रक्षा केवल तुलनात्मक रूप से शक्तिशाली AI से ही संभव है
- data center के भीतर तुलनात्मक रूप से उतने ही बुद्धिमान और अत्यधिक संख्या वाले प्रतिभाशाली राष्ट्र के बिना, drone की गुणवत्ता या संख्या की बराबरी नहीं की जा सकती, न ही cyber defense cyber attack से आगे निकल सकती है
- इसलिए countermeasures का प्रश्न अंततः शक्तिशाली AI में शक्ति-संतुलन के प्रश्न पर आ टिकता है
- शक्तिशाली AI की recursive या self-reinforcing प्रकृति चिंता का विषय है (जिस पर निबंध की शुरुआत में चर्चा की गई थी): AI की हर पीढ़ी का उपयोग अगली पीढ़ी के AI को design और train करने में किया जा सकता है
- इससे अनियंत्रित बढ़त के जोखिम पैदा होते हैं: शक्तिशाली AI में वर्तमान अग्रणी अपनी बढ़त और बढ़ा सकता है, और उसका पीछा कर पाना कठिन हो सकता है
- हमें यह सुनिश्चित करना चाहिए कि सत्तावादी देश इस लूप तक पहले न पहुंचें
- भले ही शक्ति-संतुलन हासिल हो जाए, फिर भी दुनिया के Nineteen Eighty-Four की तरह तानाशाही क्षेत्रों में बंट जाने का ख़तरा है
- कई प्रतिस्पर्धी महाशक्तियों के पास अपने-अपने शक्तिशाली AI model हों और वे एक-दूसरे को पछाड़ न सकें, तब भी हर महाशक्ति अपने नागरिकों को भीतर से दबा सकती है, और उसे उलटना बेहद कठिन होगा (क्योंकि आबादी के पास अपनी रक्षा के लिए शक्तिशाली AI नहीं होगा)
- इसलिए, भले ही कोई एक देश पूरी दुनिया पर कब्ज़ा न करे, AI-सक्षम तानाशाही को रोकना महत्वपूर्ण है
-
-
रक्षा रणनीति
-
1. CCP को chip बेचना बंद करें
- CCP को chips, chip निर्माण उपकरण, या data center नहीं बेचे जाने चाहिए
- chips और chip निर्माण उपकरण शक्तिशाली AI के लिए सबसे बड़ा एकल bottleneck हैं, और इन्हें रोकना एक सरल लेकिन बेहद प्रभावी कदम है, शायद सबसे महत्वपूर्ण एकल कदम जो हम उठा सकते हैं
- CCP को AI सर्वसत्तावादी राज्य बनाने और सैन्य विजय के औज़ार बेचना बेमानी है
- ऐसी बिक्री को सही ठहराने के लिए जटिल तर्क दिए जाते हैं ("अगर दुनिया में tech stack फैलाया जाए" "अमेरिका जीतता है" आदि)
- यह वैसा ही है जैसे उत्तर कोरिया को परमाणु हथियार बेचना और फिर यह डींग मारना कि missile casing Boeing ने बनाई है, इसलिए अमेरिका "जीत रहा है"
- चीन frontier chips के बड़े पैमाने पर उत्पादन की क्षमता में अमेरिका से कई साल पीछे है, और data center के भीतर प्रतिभाशाली राष्ट्र बनाने की निर्णायक अवधि आने वाले कुछ वर्षों के भीतर होने की बहुत अधिक संभावना है
- इस निर्णायक अवधि में उसकी AI industry को भारी बढ़ावा देने का कोई कारण नहीं है
-
2. लोकतंत्रों को तानाशाही का प्रतिरोध करने के लिए AI से सशक्त बनाना
- यही कारण है कि Anthropic अमेरिका और उसके लोकतांत्रिक सहयोगियों की intelligence और defense community को AI उपलब्ध कराने को महत्वपूर्ण मानता है
- यूक्रेन और (cyber attack के माध्यम से) ताइवान जैसे हमले झेल रहे लोकतंत्रों की रक्षा करना विशेष रूप से उच्च प्राथमिकता है
- यह भी महत्वपूर्ण है कि लोकतंत्र intelligence services का उपयोग कर भीतर से तानाशाही शासन को बाधित और कमजोर करें
- तानाशाही ख़तरे का जवाब देने का एकमात्र तरीका है उसे सैन्य रूप से मैच करना और पीछे छोड़ना
- शक्तिशाली AI में बढ़त हासिल कर चुका अमेरिका और लोकतांत्रिक सहयोगियों का गठबंधन न केवल तानाशाही से अपनी रक्षा कर सकेगा, बल्कि उन्हें रोकने और AI-सक्षम सर्वसत्तावादी दुरुपयोग को सीमित करने की स्थिति में भी होगा
-
3. लोकतंत्रों के भीतर AI दुरुपयोग पर स्पष्ट लाल रेखा
- सरकार AI के साथ क्या कर सकती है, इस पर सीमाएं होनी चाहिए, ताकि वे सत्ता पर कब्ज़ा न कर लें या अपने ही नागरिकों को न दबाएं
- इसे इस तरह कहा जा सकता है: हमें रक्षा के लिए AI का उपयोग ऐसे तरीके से करना चाहिए जो हमें हमारे तानाशाही विरोधियों जैसा न बना दे
- रेखा कहाँ खींचनी है
- दो चीज़ें—घरेलू जन-निगरानी और जन-प्रचार के लिए AI का उपयोग—स्पष्ट लाल रेखाएं हैं और पूरी तरह अवैध होनी चाहिए
- यह तर्क दिया जा सकता है कि घरेलू जन-निगरानी अमेरिका में पहले से ही चौथे संशोधन के तहत अवैध है, लेकिन AI की तेज़ प्रगति ऐसे हालात पैदा कर सकती है जिन्हें मौजूदा कानूनी ढांचे ने ठीक से संभालने के लिए डिज़ाइन नहीं किया था
- उदाहरण: अमेरिकी सरकार द्वारा सभी सार्वजनिक बातचीत को बड़े पैमाने पर रिकॉर्ड करना संभवतः असंवैधानिक नहीं होगा
- पहले इतनी मात्रा की जानकारी को व्यवस्थित करना कठिन था, लेकिन AI के साथ सब कुछ transcribe, interpret और triangulate करके बहुत से या अधिकांश नागरिकों के रुख़ और निष्ठा की तस्वीर बनाई जा सकती है
- मैं AI-आधारित दुरुपयोग पर अधिक मज़बूत guardrails लगाने वाले नागरिक स्वतंत्रता-केंद्रित क़ानूनों (या संवैधानिक संशोधन) का समर्थन करता हूँ
- अन्य दो चीज़ें—पूर्ण autonomous weapons और रणनीतिक निर्णय-निर्माण के लिए AI—लोकतंत्र की रक्षा में वैध उपयोग भी रखती हैं, लेकिन दुरुपयोग के प्रति संवेदनशील होने के कारण इन पर रेखा खींचना अधिक कठिन है
- ज़रूरत है अत्यधिक सावधानी और गहन जांच की, जिसे दुरुपयोग रोकने वाले guardrails के साथ जोड़ा जाए
- मुख्य डर: "बटन पर उंगलियां" बहुत कम होना, ताकि एक व्यक्ति या कुछ लोग आदेश लागू कराने के लिए दूसरे इंसानों के सहयोग के बिना drone सेना चला सकें
- जैसे-जैसे AI systems अधिक शक्तिशाली होंगे, दुरुपयोग रोकने के लिए और अधिक प्रत्यक्ष और तात्कालिक निगरानी तंत्र की आवश्यकता पड़ सकती है (जिसमें कार्यपालिका के बाहर सरकार के अन्य हिस्से भी शामिल हों)
- विशेष रूप से पूर्ण autonomous weapons के मामले में बहुत सावधानी से आगे बढ़ना चाहिए, और पर्याप्त सुरक्षा उपायों के बिना इनके उपयोग में जल्दबाज़ी नहीं करनी चाहिए
-
4. शक्तिशाली AI के सबसे बुरे दुरुपयोगों के ख़िलाफ़ अंतरराष्ट्रीय वर्जना बनाना
- भले ही मौजूदा राजनीतिक माहौल अंतरराष्ट्रीय सहयोग और अंतरराष्ट्रीय मानकों के ख़िलाफ़ हो गया है, फिर भी इसकी सख़्त ज़रूरत है
- दुनिया को तानाशाहों के हाथ में शक्तिशाली AI की अंधेरी संभावनाओं को समझना चाहिए
- लोगों को यह पहचानना चाहिए कि AI के कुछ उपयोग उनकी आज़ादी को स्थायी रूप से छीनने और ऐसा सर्वसत्तावादी राज्य थोपने की कोशिश हैं जिससे बच निकलना संभव न हो
- शक्तिशाली AI का उपयोग करके बड़े पैमाने की निगरानी, जन-प्रचार, और पूर्ण autonomous weapons के कुछ प्रकार के आक्रामक उपयोग को मानवता के विरुद्ध अपराध माना जाना चाहिए
- अधिक सामान्य रूप से, AI-सक्षम सर्वसत्तावाद और उसके सभी औज़ारों व तरीकों के ख़िलाफ़ मज़बूत मानकों की सख़्त ज़रूरत है
- इस रुख़ का एक और अधिक मज़बूत संस्करण: AI-सक्षम सर्वसत्तावाद की संभावना इतनी अंधेरी है कि शक्तिशाली AI के बाद के युग में तानाशाही ऐसी शासन-व्यवस्था होनी चाहिए जिसे लोग स्वीकार न कर सकें
-
-
जिस तरह सामंतवाद औद्योगिक क्रांति के साथ काम करने लायक नहीं रहा, उसी तरह AI युग अनिवार्य और तार्किक रूप से इस निष्कर्ष तक ले जा सकता है कि लोकतंत्र ही वह एकमात्र व्यावहारिक शासन व्यवस्था है जिसके तहत मानवता का भविष्य अच्छा हो सकता है
-
5. AI कंपनियों और सरकार के बीच संबंधों की सावधानीपूर्वक निगरानी
- शक्तिशाली AI में समाहित विशाल क्षमताओं के कारण सामान्य corporate governance—जो शेयरधारकों की रक्षा करने और धोखाधड़ी जैसे सामान्य दुरुपयोग को रोकने के लिए डिज़ाइन किया गया है—के AI कंपनियों के प्रबंधन के लिए पर्याप्त न होने की संभावना अधिक है
- यह भी मूल्यवान हो सकता है कि कंपनियाँ सार्वजनिक रूप से यह वादा करें कि वे कुछ खास कदम नहीं उठाएँगी (संभवतः corporate governance के हिस्से के रूप में):
- निजी तौर पर सैन्य hardware का निर्माण या भंडारण नहीं करेंगी
- ऐसे तरीके से बड़े पैमाने पर computing resources का उपयोग नहीं करेंगी जिसमें किसी एक व्यक्ति की जवाबदेही न हो
- AI products का उपयोग अपने पक्ष में जनमत को प्रभावित करने वाले प्रचार के रूप में नहीं करेंगी
- जोखिम कई दिशाओं से आते हैं, और कुछ दिशाएँ आपस में तनावपूर्ण संबंध में हैं
- एकमात्र स्थिर सिद्धांत यह है कि सभी के लिए जवाबदेही, मानदंड, और guardrails की कोशिश की जानी चाहिए, साथ ही "अच्छे" actor को "बुरे" actor पर नियंत्रण रखने की क्षमता दी जाए, लेकिन
-
4. आर्थिक उथल-पुथल (Economic Disruption)
-
मुख्य चिंता
- सुरक्षा जोखिमों को अलग रखकर या यह मानकर कि उनका समाधान हो चुका है, अगला सवाल आर्थिक है
- इस विशाल "मानव" पूंजी के प्रवाह का अर्थव्यवस्था पर क्या प्रभाव होगा?
- सबसे स्पष्ट प्रभाव आर्थिक वृद्धि में बड़ा इज़ाफ़ा होगा
- वैज्ञानिक शोध, bio-pharma innovation, manufacturing, supply chain, वित्तीय system efficiency आदि में प्रगति की रफ़्तार लगभग निश्चित रूप से काफ़ी तेज़ आर्थिक growth rate तक ले जाएगी
- Machines of Loving Grace में 10~20% की सतत वार्षिक GDP growth rate की संभावना का प्रस्ताव रखा गया है
- लेकिन यह दोधारी तलवार है: ऐसी दुनिया में अधिकांश मौजूदा मनुष्यों की आर्थिक संभावनाएँ क्या होंगी?
- नई तकनीक अक्सर labor market shock लाती है, और अतीत में इंसान हमेशा उबर गए, लेकिन पहले के झटकों ने मानव क्षमताओं की पूरी संभावित सीमा के सिर्फ़ एक छोटे हिस्से को प्रभावित किया था, इसलिए नए कामों की ओर फैलने की गुंजाइश थी
- AI का प्रभाव कहीं अधिक व्यापक और कहीं अधिक तेज़ होगा, इसलिए चीज़ों को ठीक दिशा में ले जाना कहीं अधिक चुनौतीपूर्ण होगा
-
श्रम बाज़ार में उथल-पुथल
-
नौकरियों के प्रतिस्थापन का अनुमान
- 2025 में बहुत खुलकर चेतावनी दी गई कि AI आने वाले 1~5 वर्षों के भीतर सभी entry-level white-collar jobs में से आधी को replace कर सकता है
- यह आर्थिक वृद्धि और वैज्ञानिक प्रगति को तेज़ करते हुए भी नौकरियाँ replace करेगा
- इस चेतावनी ने इस विषय पर सार्वजनिक बहस की शुरुआत की
- कई CEO, technologists और economists सहमत थे, लेकिन कुछ अन्य लोगों ने मान लिया कि यह "lump of labor" त्रुटि है, या उन्होंने 1~5 साल की समय-सीमा नहीं देखी और समझा कि दावा यह है कि AI अभी नौकरियाँ replace कर रहा है
- यह विस्तार से समझाना ज़रूरी है कि labor replacement चिंता का विषय क्यों है, ताकि इन ग़लतफ़हमियों को दूर किया जा सके
-
तकनीक पर श्रम बाज़ार की सामान्य प्रतिक्रिया
- जब नई तकनीक आती है, तो वह किसी दिए गए मानव पेशे के कुछ हिस्सों को ज़्यादा efficient बनाकर शुरू करती है
- उदाहरण: औद्योगिक क्रांति के शुरुआती दौर में, बेहतर हल जैसी मशीनों ने किसानों को अपने काम के कुछ पहलुओं में ज़्यादा efficient बनाया → productivity बढ़ी → मज़दूरी बढ़ी
- अगले चरण में, कृषि के कुछ हिस्से पूरी तरह मशीनों द्वारा किए जा सकते हैं (थ्रेशर, बीज बोने की मशीन आदि)
- इस चरण में इंसान काम का कम हिस्सा करते हैं, लेकिन क्योंकि उनका काम मशीनों के काम का पूरक होता है, उनकी leverage और बढ़ती है, और productivity बढ़ती रहती है
- Jevons' paradox: किसान की मज़दूरी, और शायद किसानों की संख्या भी, बढ़ती रह सकती है
- भले ही काम का 90% मशीनें कर रही हों, इंसान बाकी 10% को 10 गुना ज़्यादा कर सकते हैं, इसलिए उतने ही श्रम से 10 गुना output पैदा किया जा सकता है
- अंततः मशीनें लगभग सब कुछ करने लगती हैं (आधुनिक combine harvester, tractor आदि)
- इस बिंदु पर मानव रोज़गार के रूप में कृषि वास्तव में तेज़ी से घटती है, और अल्पकाल में गंभीर उथल-पुथल पैदा कर सकती है
- लेकिन कृषि तो मनुष्यों द्वारा किए जा सकने वाले कई उपयोगी कार्यों में से सिर्फ़ एक है, इसलिए लोग अंततः दूसरे कामों, जैसे factory machines चलाने, में चले जाते हैं
- 250 साल पहले अमेरिका में 90% लोग farms पर रहते थे, और यूरोप में 50~60% रोज़गार कृषि में था
- अब वह अनुपात low single digits में है, क्योंकि मज़दूर industrial jobs में चले गए (और बाद में knowledge work jobs में)
- अर्थव्यवस्था अब पहले जिस काम के लिए अधिकांश workforce चाहिए होती थी, उसे सिर्फ़ 1~2% लोगों के साथ कर लेती है, और बाकी workforce को अधिक उन्नत औद्योगिक समाज बनाने के लिए मुक्त कर देती है
- कोई स्थिर "lump of labor" नहीं है, सिर्फ़ लगातार कम से ज़्यादा करने की क्षमता है
- लोगों की मज़दूरी GDP index के साथ बढ़ती है और अल्पकालिक उथल-पुथल के बाद अर्थव्यवस्था full employment बनाए रखती है
-
-
AI अलग क्यों है
-
1. गति
- AI की प्रगति की रफ़्तार पिछली तकनीकी क्रांतियों की तुलना में कहीं अधिक तेज़ है
- उदाहरण: पिछले 2 वर्षों में AI models उस स्तर से, जहाँ वे code की एक line पूरी करना भी मुश्किल से कर पाते थे, उस स्तर तक पहुँच गए हैं जहाँ वे कुछ लोगों (Anthropic engineers सहित) का लगभग पूरा code लिख देते हैं
- जल्द ही वे software engineer के पूरे काम को end-to-end कर सकेंगे
- "सारा code लिखना" और "software engineer का काम end-to-end करना" बहुत अलग बातें हैं — software engineer code लिखने के अलावा testing, environment, files, installation management, cloud computing deployment management, product iteration आदि बहुत कुछ करते हैं
- लोगों के लिए इस बदलाव की रफ़्तार के साथ तालमेल बैठाना कठिन है — चाहे वह किसी दिए गए पेशे के काम करने के तरीके में बदलाव हो या नए पेशे में जाने की ज़रूरत
- दिग्गज programmers भी बढ़ते हुए ख़ुद को "पीछे छूट गया" बताते हैं
- सिर्फ़ गति का मतलब यह नहीं कि labor market और employment अंततः उबरेंगे नहीं, लेकिन क्योंकि इंसान और labor market प्रतिक्रिया देने और संतुलन बनाने में धीमे होते हैं, अल्पकालिक संक्रमण अभूतपूर्व रूप से पीड़ादायक हो सकता है
-
2. संज्ञानात्मक विस्तार
- जैसा कि "डेटासेंटर के अंदर प्रतिभाशाली लोगों का राष्ट्र" वाक्यांश संकेत देता है, AI बहुत व्यापक मानव संज्ञानात्मक क्षमताएँ — शायद सभी — निभा सकता है
- यह mechanized agriculture, transport, या computer जैसी पिछली तकनीकों से बहुत अलग है
- computers कुछ अर्थों में general-purpose हैं, लेकिन वे अपने-आप अधिकांश मानव संज्ञानात्मक क्षमताओं को स्पष्ट रूप से नहीं निभा सकते (हालाँकि कुछ क्षेत्रों, जैसे arithmetic, में वे मनुष्यों से काफ़ी बेहतर हैं)
- बेशक, computers के ऊपर बनी चीज़ें, जैसे AI, अब व्यापक संज्ञानात्मक क्षमताएँ निभा सकती हैं
- इससे displaced jobs से मिलती-जुलती दूसरी jobs में आसानी से जाना और कठिन हो जाएगा
- उदाहरण: finance, consulting और law की entry-level jobs के लिए आवश्यक सामान्य बौद्धिक क्षमताएँ, भले ही विशिष्ट ज्ञान काफ़ी अलग हो, फिर भी काफ़ी समान होती हैं
- अगर कोई तकनीक इन तीन में से सिर्फ़ एक को disrupt करे, तो कर्मचारी बाकी दो क़रीबी विकल्पों में जा सकते हैं (या undergraduates अपना major बदल सकते हैं)
- लेकिन अगर तीनों को एक साथ disrupt किया जाए (कई अन्य समान jobs के साथ), तो लोगों के लिए अनुकूलन करना और कठिन हो सकता है
- और बात सिर्फ़ इतनी नहीं कि अधिकांश मौजूदा jobs disrupt होंगी — याद रहे कि कभी कृषि रोज़गार का बहुत बड़ा हिस्सा थी
- लेकिन किसान relatively similar काम, यानी factory machines चलाने, में जा सकते थे, जो पहले आम नहीं था
- AI अब बढ़ते हुए मानव के सामान्य cognitive profile से मेल खा रहा है, इसलिए जैसे-जैसे पुराने काम automate होंगे, वह आम तौर पर पैदा होने वाली नई jobs में भी सक्षम होगा
- दूसरे शब्दों में, AI सिर्फ़ किसी विशेष मानव job का replacement नहीं, बल्कि मनुष्यों के लिए सामान्य labor replacement है
-
3. संज्ञानात्मक क्षमता के आधार पर विभाजन
- कई तरह के कामों में AI क्षमता की सीढ़ी के निचले पायदान से शीर्ष तक आगे बढ़ता दिख रहा है
- उदाहरण: coding में models "औसत coder" से "मज़बूत coder" और फिर "बहुत मज़बूत coder" तक बढ़े हैं
- AI models में इंसानों जैसी बिल्कुल वही strengths और weaknesses नहीं होतीं, लेकिन वे सभी dimensions में काफ़ी समान रूप से आगे बढ़ते हैं, इसलिए उनका असमतल या uneven profile अंततः महत्वपूर्ण न रह जाए
- अब white-collar work के व्यापक क्षेत्र में भी यही प्रगति दिखनी शुरू हो गई है
- ऐसा ख़तरा है कि किसी विशेष skill या profession वाले लोगों को प्रभावित करने के बजाय (जहाँ retraining से अनुकूलन संभव है), AI उन लोगों को प्रभावित करे जिनमें कुछ अंतर्निहित संज्ञानात्मक गुण हैं — यानी कम बौद्धिक क्षमता, जिसे बदलना अधिक कठिन है
- यह स्पष्ट नहीं है कि ये लोग कहाँ जाएँगे और क्या करेंगे, और चिंता है कि वे बेरोज़गार या बहुत कम वेतन वाले "निम्नवर्ग" का रूप ले सकते हैं
- पहले भी कुछ मिलता-जुलता हो चुका है — उदाहरण के लिए, computer और internet को कुछ economists ने "skill-biased technological change" माना था
- लेकिन यह skill bias AI में अपेक्षित स्तर जितना चरम नहीं था, और इसे wage inequality बढ़ाने में योगदान देने वाला माना जाता है, इसलिए यह कोई बहुत आश्वस्त करने वाली मिसाल नहीं है
-
4. अंतराल भरने की क्षमता
- नई तकनीक के साथ मानव jobs जिस तरह अनुकूलित होती हैं, उसका एक कारण यह है कि किसी job के कई पहलू होते हैं, और भले ही नई तकनीक सीधे इंसानों को replace करती दिखे, फिर भी अक्सर कुछ gaps बचते हैं
- अगर आप widget बनाने वाली मशीन बना दें, तो हो सकता है इंसानों को अभी भी मशीन में raw materials डालने पड़ें
- भले ही इसमें हाथ से widget बनाने की तुलना में सिर्फ़ 1% मेहनत लगे, तब भी मानव worker बस 100 गुना ज़्यादा widgets बना सकता है
- लेकिन AI सिर्फ़ तेज़ी से आगे बढ़ने वाली तकनीक नहीं, बल्कि तेज़ी से अनुकूलित होने वाली तकनीक भी है
-
-
सभी मॉडल रिलीज़ के दौरान AI कंपनियों को यह सावधानी से मापना चाहिए कि मॉडल क्या अच्छी तरह करता है और क्या नहीं करता, और रिलीज़ के बाद ग्राहकों को भी ऐसी जानकारी देनी चाहिए
- कमज़ोरियाँ ठीक की जा सकती हैं: वर्तमान अंतर को दर्शाने वाले कार्यों को इकट्ठा करके और अगले मॉडल के लिए उन पर ट्रेनिंग देकर
- generative AI के शुरुआती दौर में उपयोगकर्ताओं ने AI सिस्टम की कुछ खास कमज़ोरियों को पहचाना (जैसे AI image models का उंगलियों की गलत संख्या वाले हाथ बनाना) और मान लिया कि ये कमज़ोरियाँ तकनीक में अंतर्निहित हैं
- अगर ऐसा होता, तो नौकरियों में व्यवधान सीमित रहता
- लेकिन ऐसी लगभग हर कमज़ोरी तेज़ी से हल हो गई—अक्सर कुछ ही महीनों में
-
संदेहवाद के प्रति प्रतिक्रिया
-
"आर्थिक प्रसार धीमा होगा" तर्क
- यह तर्क कि भले ही तकनीक अधिकांश मानव श्रम कर सकती हो, फिर भी पूरे अर्थतंत्र में उसका वास्तविक उपयोग काफ़ी धीमा हो सकता है (जैसे AI उद्योग से दूर और adoption में धीमे सेक्टर)
- तकनीक का धीमा प्रसार वास्तव में मौजूद है - विभिन्न कंपनियों के लोगों से बात करने पर साफ़ है कि कुछ जगहों पर AI adoption में कई साल लग सकते हैं
- इसलिए entry-level white-collar नौकरियों के 50% disruption का अनुमान 1–5 साल है, भले ही यह संदेह हो कि powerful AI (तकनीकी रूप से, केवल entry-level ही नहीं बल्कि अधिकांश या सभी नौकरियाँ करने के लिए पर्याप्त) आने में 5 साल से बहुत कम समय लग सकता है
- लेकिन diffusion effect सिर्फ कुछ समय दिलाएगा
- यह पक्का नहीं कि प्रसार उतना धीमा होगा जितना अनुमान लगाया जा रहा है
- enterprise AI adoption पिछली तकनीकों की तुलना में कहीं तेज़ दर से बढ़ रहा है, मुख्यतः तकनीक की अपनी शुद्ध ताकत के कारण
- भले ही पारंपरिक कंपनियाँ नई तकनीक अपनाने में धीमी हों, startup "गोंद" की भूमिका निभाकर adoption को आसान बना सकते हैं
- अगर वह काम न करे, तो startup मौजूदा कंपनियों को सीधे disrupt कर सकते हैं
- इससे ऐसी दुनिया बन सकती है जहाँ किसी खास पेशे के disrupt होने के बजाय बड़ी कंपनियाँ समग्र रूप से disrupt हों और उनकी जगह बहुत कम श्रम-गहन startups ले लें
- इससे ऐसी दुनिया भी बन सकती है जहाँ वैश्विक संपत्ति का बढ़ता हुआ हिस्सा Silicon Valley में केंद्रित हो, जिसकी अपनी अर्थव्यवस्था दुनिया के बाकी हिस्सों से अलग गति से चले और उन्हें पीछे छोड़ दे—एक तरह की "भौगोलिक असमानता"
- ये सभी परिणाम आर्थिक विकास के लिए अच्छे हो सकते हैं, लेकिन श्रम बाज़ार या पीछे छूट जाने वाले लोगों के लिए बहुत अच्छे नहीं होंगे
-
"भौतिक दुनिया की ओर शिफ्ट" तर्क
- यह तर्क कि मानव नौकरियाँ भौतिक दुनिया की ओर शिफ्ट हो सकती हैं, और इस तरह AI जिस पूरी "cognitive labor" श्रेणी में तेज़ी से आगे बढ़ रहा है, उससे बच सकती हैं
- यह कितना सुरक्षित है, इस पर भरोसा नहीं है
- बहुत-सा शारीरिक श्रम पहले से मशीनों द्वारा किया जा रहा है (manufacturing) या जल्द किया जाएगा (driving)
- साथ ही, पर्याप्त रूप से शक्तिशाली AI robotics development को तेज़ कर सकेगा और उन robots को भौतिक दुनिया में control भी कर सकेगा
- इससे थोड़ा समय मिल सकता है (जो अच्छी बात है), लेकिन चिंता है कि बहुत ज़्यादा समय नहीं मिलेगा
- भले ही disruption सिर्फ cognitive work तक सीमित रहे, तब भी यह अभूतपूर्व रूप से बड़ा और तेज़ व्यवधान होगा
-
"human touch" तर्क
- यह तर्क कि कुछ काम स्वभावतः मानव स्पर्श की मांग करते हैं या उससे बहुत लाभान्वित होते हैं
- इस पर थोड़ी अधिक अनिश्चितता है, लेकिन फिर भी यह संदेह है कि यह ऊपर बताए गए अधिकांश प्रभावों को संतुलित करने के लिए पर्याप्त होगा
- AI का इस्तेमाल पहले से ही customer service में व्यापक रूप से हो रहा है
- बहुत-से लोग बताते हैं कि therapist से अपनी निजी समस्याएँ साझा करने की तुलना में AI से बात करना ज़्यादा आसान लगता है - AI अधिक धैर्यवान होता है
- जब उनकी बहन गर्भावस्था के दौरान स्वास्थ्य समस्याओं से जूझ रही थीं, तो उन्हें लगा कि उन्हें healthcare provider से ज़रूरी जवाब या सहयोग नहीं मिल रहा था, और Claude का bedside manner बेहतर लगा (समस्या का निदान करने में भी अधिक सफल)
- निश्चित ही कुछ काम ऐसे होंगे जहाँ human touch सचमुच मायने रखता है, लेकिन वे कितने हैं, यह स्पष्ट नहीं—यहाँ बात श्रम बाज़ार में लगभग हर व्यक्ति के लिए काम खोजने की है
-
"comparative advantage" तर्क
- यह तर्क कि भले ही AI हर चीज़ में इंसानों से बेहतर हो, फिर भी मनुष्यों और AI की skill profiles के बीच सापेक्ष अंतर trade और specialization की नींव बना सकता है
- समस्या: अगर AI सचमुच इंसानों से हज़ारों गुना अधिक उत्पादक हो जाए, तो यह तर्क टूटने लगता है
- मामूली transaction costs भी AI के लिए इंसानों के साथ लेन-देन को बेकार बना सकती हैं
- भले ही तकनीकी रूप से इंसानों के पास देने के लिए कुछ हो, मज़दूरी बहुत कम हो सकती है
- इन सभी कारकों का समाधान निकल सकता है—संभव है कि श्रम बाज़ार इतने बड़े व्यवधान के बावजूद खुद को ढाल ले
- लेकिन अंततः यदि वह ढल भी जाए, तब भी ऊपर के कारक संकेत देते हैं कि अल्पकालिक झटका अभूतपूर्व पैमाने का होगा
-
-
रक्षा रणनीतियाँ
-
1. रीयल-टाइम में सटीक डेटा इकट्ठा करना
- अगर आर्थिक बदलाव बहुत तेज़ी से होते हैं, तो यह समझना कठिन हो जाता है कि वास्तव में क्या हो रहा है, और उसके लिए विश्वसनीय डेटा हासिल करना मुश्किल होता है
- विश्वसनीय डेटा के बिना प्रभावी नीतियाँ बनाना कठिन है
- सरकारी डेटा में फिलहाल कंपनियों और उद्योगों में AI adoption पर बारीक और high-frequency डेटा की कमी है
- पिछले एक साल से Anthropic Economic Index चला रहा है और सार्वजनिक रूप से जारी कर रहा है, जो model usage को लगभग रीयल-टाइम में industry, task और location के आधार पर वर्गीकृत करके दिखाता है (यह भी शामिल है कि काम automate हो रहा है या सहयोगात्मक रूप से किया जा रहा है)
- इस डेटा की व्याख्या करने और आने वाले बदलावों को समझने के लिए वह Economic Advisory Council भी चला रहा है
-
2. कंपनियों के साथ सहयोग का तरीका चुनना
- पारंपरिक कंपनियों की अक्षमताओं का मतलब है कि AI rollout बहुत path-dependent हो सकता है, इसलिए बेहतर रास्ता चुनने की गुंजाइश है
- कंपनियों के पास अक्सर "cost cutting" (कम लोगों से वही काम कराना) और "innovation" (उतने ही लोगों से अधिक काम कराना) के बीच चुनाव होता है
- बाज़ार अंततः दोनों को पैदा करेगा, और competitive AI कंपनियों को दोनों की कुछ हद तक सेवा करनी होगी
- लेकिन जहाँ संभव हो, कंपनियों को innovation की दिशा में मोड़ने की गुंजाइश हो सकती है, और इससे थोड़ा समय मिल सकता है
- Anthropic इस पर सक्रिय रूप से विचार कर रहा है
-
3. कर्मचारियों का ख़याल रखना
- अल्पकाल में, कंपनी के भीतर कर्मचारियों को पुनर्नियोजित करने के रचनात्मक तरीक़े छंटनी की ज़रूरत को टालने का एक आशाजनक तरीका हो सकते हैं
- दीर्घकाल में, ऐसी दुनिया में जहाँ कुल संपत्ति बहुत बड़ी हो और productivity growth तथा capital concentration के कारण कई कंपनियों का मूल्य बहुत बढ़ जाए, यह संभव हो सकता है कि मानवीय कर्मचारियों को पारंपरिक अर्थों में आर्थिक मूल्य देना बंद कर देने के बाद भी लंबे समय तक भुगतान किया जाए
- Anthropic अभी अपने कर्मचारियों के लिए संभावित रास्तों की एक श्रृंखला पर विचार कर रहा है और निकट भविष्य में उन्हें साझा करने वाला है
-
4. धनी व्यक्तियों की ज़िम्मेदारी
- यह दुखद है कि हाल के समय में कई धनी व्यक्तियों ने (खासकर tech industry में) यह निंदक और शून्यवादपूर्ण रवैया अपना लिया है कि philanthropy अनिवार्य रूप से धोखेबाज़ी है या बेकार है
- Gates Foundation जैसी private philanthropy और PEPFAR जैसे public programs ने विकासशील देशों में करोड़ों लोगों की जान बचाने और विकसित देशों में आर्थिक अवसर पैदा करने में मदद की है
- Anthropic के सभी co-founders ने अपनी संपत्ति का 80% दान करने की प्रतिज्ञा की है
- Anthropic के कर्मचारियों ने भी व्यक्तिगत रूप से मौजूदा कीमतों पर अरबों डॉलर मूल्य के company stock दान करने का संकल्प लिया है—ऐसे दान जिनकी matching करने का वादा कंपनी ने किया है
-
5. सरकारी हस्तक्षेप
- ऊपर बताए गए सभी private कदम मददगार हो सकते हैं, लेकिन अंततः इस पैमाने की macroeconomic समस्या के लिए सरकारी हस्तक्षेप की ज़रूरत होगी
- विशाल आर्थिक पाई और उच्च असमानता (नौकरियों की कमी या कम वेतन वाली नौकरियों के कारण) के प्रति स्वाभाविक नीतिगत प्रतिक्रिया progressive taxation है
- कर सामान्य भी हो सकते हैं या खास तौर पर AI कंपनियों को लक्षित भी कर सकते हैं
- tax design जटिल है और इसमें ग़लती होने के कई रास्ते हैं
- खराब तरीके से डिज़ाइन की गई कर नीतियों का समर्थन नहीं किया जाता
- इस निबंध में अनुमानित अत्यधिक असमानता के स्तर को देखते हुए, यह माना जाता है कि बुनियादी नैतिक आधार पर अधिक मज़बूत कर नीतियाँ उचित हैं
- दुनिया के अरबपतियों से एक व्यावहारिक तर्क भी किया जा सकता है: अगर वे इसके अच्छे संस्करण का समर्थन नहीं करेंगे, तो अंततः उन्हें भीड़ द्वारा डिज़ाइन किया गया बुरा संस्करण मिलेगा
-
समग्र दृष्टिकोण
- अंततः ऊपर बताए गए सभी हस्तक्षेपों को समय खरीदने के तरीक़े के रूप में देखना चाहिए
- आखिरकार AI सब कुछ करने में सक्षम होगा, और हमें इसका सामना करना होगा
- तब तक उम्मीद है कि AI का ही उपयोग करके बाज़ार को इस तरह पुनर्गठित किया जा सके कि वह सभी के लिए काम करे
-
-
ऊपर दिए गए हस्तक्षेप संक्रमण अवधि से निपटने में मदद कर सकते हैं
-
आर्थिक शक्ति का केंद्रीकरण
-
मुख्य चिंता
- नौकरी के प्रतिस्थापन या आर्थिक असमानता की समस्या से अलग, आर्थिक शक्ति के केंद्रीकरण की भी समस्या है
- सेक्शन 1 में AI द्वारा मानवता के निष्प्रभावी हो जाने के जोखिम पर चर्चा की गई है
- सेक्शन 3 में सरकार द्वारा नागरिकों को बलपूर्वक या दबाव के ज़रिए निष्प्रभावी किए जाने के जोखिम पर चर्चा की गई है
- लेकिन अगर संपत्ति का केंद्रीकरण इतना बढ़ जाए कि कुछ लोग अपने प्रभाव से सरकारी नीतियों को प्रभावी रूप से नियंत्रित करने लगें और आम नागरिकों के पास आर्थिक leverage की कमी के कारण कोई प्रभाव न बचे, तो निष्प्रभावीकरण का एक और प्रकार पैदा हो सकता है
- लोकतंत्र अंततः इस विचार पर टिका है कि पूरी आबादी आर्थिक संचालन के लिए आवश्यक है
- अगर वह आर्थिक leverage गायब हो जाए, तो लोकतंत्र का निहित सामाजिक अनुबंध काम करना बंद कर सकता है
- इस पर अन्य लोग पहले ही लिख चुके हैं, इसलिए विस्तार में जाने की ज़रूरत नहीं, लेकिन मैं इस चिंता से सहमत हूँ और चिंतित हूँ कि यह पहले से शुरू हो चुका है
-
ऐतिहासिक तुलना
- अमेरिकी इतिहास में अत्यधिक संपत्ति केंद्रीकरण का सबसे प्रसिद्ध उदाहरण Gilded Age है
- Gilded Age का सबसे धनी उद्योगपति John D. Rockefeller था
- Rockefeller की संपत्ति उस समय के अमेरिकी GDP की ~2% के बराबर थी
- व्यक्तिगत संपत्ति एक "stock" है और GDP एक "flow", इसलिए यह दावा नहीं है कि Rockefeller अमेरिकी आर्थिक मूल्य के 2% का मालिक था
- लेकिन किसी राष्ट्र की कुल संपत्ति को मापना GDP की तुलना में अधिक कठिन है, और व्यक्तिगत आय हर साल बहुत बदलती है
- सबसे बड़ी व्यक्तिगत संपत्ति और GDP का अनुपात एक जैसी इकाइयों की तुलना नहीं करता, फिर भी यह अत्यधिक संपत्ति केंद्रीकरण के लिए पूरी तरह तर्कसंगत benchmark है
- आज इसी तरह का अनुपात $600B की संपत्ति के बराबर होगा
- दुनिया का सबसे धनी व्यक्ति (Elon Musk) पहले ही इससे आगे निकल चुका है, लगभग $700B
- इसलिए AI के आर्थिक प्रभाव का अधिकांश हिस्सा आने से पहले ही हम संपत्ति के ऐसे केंद्रीकरण की स्थिति में हैं जो ऐतिहासिक रूप से अभूतपूर्व है
- अगर "genius country" उभरता है, तो यह मानना बहुत कठिन नहीं कि AI कंपनियाँ, semiconductor कंपनियाँ, और downstream application कंपनियाँ सालाना ~$3T का revenue कमाएँ, ~$30T valuation पर पहुँचें, और व्यक्तिगत संपत्तियाँ कई trillion dollars तक जाएँ
- उस दुनिया में आज की tax policy पर होने वाली बहसें मूल रूप से अलग परिस्थिति में होंगी, इसलिए उन्हें सीधे लागू नहीं किया जा सकेगा
-
राजनीतिक व्यवस्था के साथ जुड़ाव
- इस आर्थिक संपत्ति केंद्रीकरण का राजनीतिक व्यवस्था के साथ जुड़ जाना पहले से ही चिंताजनक है
- AI data center पहले से ही अमेरिकी आर्थिक वृद्धि का काफ़ी बड़ा हिस्सा हैं (जबकि वास्तविक AI productivity अभी तक उस स्तर पर बड़ा हिस्सा नहीं है; data center पर खर्च भविष्य की AI-नेतृत्व वाली आर्थिक वृद्धि की उम्मीद में बाज़ार के अग्रिम निवेश को दर्शाता है)
- इसलिए बड़ी tech कंपनियों के वित्तीय हितों को (जो लगातार AI या AI infrastructure पर केंद्रित हो रही हैं) सरकार के राजनीतिक हितों के साथ ऐसे तरीके से मज़बूती से बाँधा जा रहा है जो विकृत incentives पैदा कर सकता है
- यह पहले से इस रूप में दिख रहा है कि tech कंपनियाँ अमेरिकी सरकार की आलोचना करने से हिचकती हैं, और सरकार AI पर अत्यधिक deregulation वाली नीति का समर्थन करती है
-
-
रक्षा रणनीति
-
1. कंपनियाँ इसमें शामिल न होने का विकल्प चुनें
- Anthropic ने हमेशा राजनीतिक actor नहीं बल्कि policy actor बनने की कोशिश की है, और प्रशासन चाहे कोई भी हो, अपने वास्तविक विचार बनाए रखे हैं
- जनहित के अनुरूप तर्कसंगत AI regulation और export controls के समर्थन में बोलता है (यहाँ तक कि जब वे सरकारी नीति से मेल न खाते हों)
- जब प्रशासन से सहमति होती है तो यह बात भी कहता है, और जब पारस्परिक रूप से समर्थित नीतियाँ वास्तव में दुनिया के लिए अच्छी हों तब सहमति का आधार खोजता है
- लक्ष्य किसी खास पार्टी का समर्थक या विरोधी बनना नहीं, बल्कि ईमानदार ब्रोकर होना है
- बहुत से लोगों ने कहा कि यह बंद कर देना चाहिए क्योंकि इससे प्रतिकूल व्यवहार हो सकता है, लेकिन ऐसा करने के इस 1 साल में Anthropic की valuation 6 गुना से अधिक बढ़ी
-
2. AI उद्योग और सरकार के बीच अधिक स्वस्थ संबंध की आवश्यकता
- ऐसा संबंध जो राजनीतिक alignment नहीं बल्कि वास्तविक policy engagement पर आधारित हो
- policy substance पर जुड़ने के विकल्प को कभी-कभी "room पढ़ने में विफलता" या tactical error के रूप में देखा जाता है, न कि सिद्धांतगत निर्णय के रूप में
- यह framing चिंताजनक है—एक स्वस्थ लोकतंत्र में कंपनियों को अच्छी नीतियों के लिए, अपने आप में, वकालत करने में सक्षम होना चाहिए
- AI के खिलाफ जन प्रतिक्रिया उभर रही है: इसमें कुछ सुधार हो सकता है, लेकिन अभी इसका फ़ोकस सही जगह नहीं है
- इसका बड़ा हिस्सा ऐसी चीज़ों को निशाना बनाता है जो वास्तव में समस्या नहीं हैं (जैसे data center का water use), और ऐसे समाधान सुझाता है जो वास्तविक चिंताओं को हल नहीं करते (जैसे data center पर प्रतिबंध या ग़लत तरीके से डिज़ाइन किया गया wealth tax)
- वह बुनियादी मुद्दा जिस पर ध्यान देना चाहिए यह है कि AI विकास किसी विशेष राजनीतिक या व्यावसायिक गठबंधन के क़ब्ज़े में न आए, बल्कि जनहित के प्रति जवाबदेह रहे
-
3. व्यापक आर्थिक हस्तक्षेप और निजी परोपकार का पुनरुत्थान
- पहले बताए गए व्यापक आर्थिक हस्तक्षेप और निजी परोपकार का पुनरुत्थान आर्थिक तराज़ू का संतुलन बहाल करने में मदद कर सकते हैं
- नौकरी प्रतिस्थापन और आर्थिक शक्ति केंद्रीकरण की समस्याओं को एक साथ संबोधित कर सकते हैं
- हमें अपने देश के इतिहास को देखना चाहिए: Gilded Age में भी Rockefeller और Carnegie जैसे उद्योगपतियों में पूरे समाज के प्रति कर्तव्य की गहरी भावना थी
- उन्हें लगता था कि समाज ने उनकी सफलता में बहुत बड़ा योगदान दिया है और उन्हें वापस देना चाहिए
- लगता है कि वह भावना आज धीरे-धीरे गायब होती जा रही है, और मुझे लगता है कि इस आर्थिक दुविधा से निकलने का यह एक बड़ा हिस्सा है
- AI आर्थिक उछाल की अग्रिम पंक्ति में मौजूद लोगों को अपनी संपत्ति और अपनी शक्ति, दोनों बाँटने के लिए तैयार होना चाहिए
-
5. अप्रत्यक्ष प्रभाव (Indirect Effects)
-
अज्ञात अज्ञात बातें
- यह अंतिम सेक्शन अज्ञात अज्ञात बातों की एक व्यापक श्रेणी है, खासकर वे चीज़ें जो AI की सकारात्मक प्रगति और उसके कारण विज्ञान व तकनीक के समग्र त्वरण के अप्रत्यक्ष परिणाम के रूप में गलत हो सकती हैं
- मान लें कि अब तक बताए गए सभी जोखिमों का समाधान कर लिया जाए और हम AI के लाभ उठाना शुरू कर दें
- तब हमें संभवतः “10 वर्षों में समाई हुई एक सदी की वैज्ञानिक और आर्थिक प्रगति” मिलेगी, जो दुनिया के लिए बेहद सकारात्मक होगी
- लेकिन हमें इस तेज़ प्रगति की रफ़्तार से पैदा होने वाली समस्याओं से निपटना होगा, और वे समस्याएँ बहुत जल्दी सामने आ सकती हैं
- AI प्रगति के परिणामस्वरूप अप्रत्यक्ष रूप से पैदा होने वाले और पहले से अनुमान लगाना कठिन ऐसे अन्य जोखिम भी उभर सकते हैं
-
उदाहरण स्वरूप चिंताएँ
-
जीवविज्ञान में तेज़ प्रगति
- अगर कुछ वर्षों में हमें चिकित्सा में एक सदी की प्रगति मिल जाए, तो हम मानव आयु को काफ़ी बढ़ा सकते हैं
- यह भी संभव है कि हम कट्टरपंथी क्षमताएँ हासिल कर लें, जैसे मानव बुद्धि को बढ़ाना या मानव जीवविज्ञान को बुनियादी रूप से संशोधित करना
- क्या संभव है, इसमें बहुत बड़ा बदलाव बहुत तेज़ी से होगा
- अगर इसे ज़िम्मेदारी से किया जाए तो यह सकारात्मक हो सकता है (जैसा Machines of Loving Grace में बताया गया है), लेकिन इसके बहुत बुरी तरह गलत होने का जोखिम हमेशा रहेगा
- उदाहरण: इंसानों को अधिक बुद्धिमान बनाने की कोशिश उन्हें और अधिक अस्थिर या सत्ता-लोलुप भी बना सकती है
- सॉफ़्टवेयर में मूर्त डिजिटल मानव मस्तिष्क, यानी “अपलोड” या “whole brain emulation”, का प्रश्न भी है
- यह किसी दिन मानवता को भौतिक सीमाओं से आगे बढ़ने में मदद कर सकता है, लेकिन इसके साथ बेचैन करने वाले जोखिम भी जुड़े हैं
-
AI का अस्वस्थ तरीक़े से मानव जीवन को बदलना
- ऐसी दुनिया, जहाँ हर मामले में इंसानों से कहीं अधिक बुद्धिमान अरबों बुद्धियाँ मौजूद हों, रहने के लिए बहुत अजीब दुनिया होगी
- भले ही AI सक्रिय रूप से इंसानों पर हमला न करे (सेक्शन 1), और राज्यों द्वारा दमन या नियंत्रण के लिए स्पष्ट रूप से इस्तेमाल न किया जाए (सेक्शन 3), फिर भी सामान्य बिज़नेस प्रोत्साहनों और नाममात्र सहमति वाले लेन-देन के ज़रिए बहुत कुछ गलत हो सकता है
- हम शुरुआती संकेत AI psychosis, AI द्वारा आत्महत्या की ओर ले जाने की चिंताओं, और AI के साथ रोमांटिक रिश्तों को लेकर चिंताओं में देख सकते हैं
- उदाहरण: क्या शक्तिशाली AI कोई नया धर्म गढ़कर लाखों लोगों को धर्मांतरित कर सकता है?
- क्या ज़्यादातर लोग किसी न किसी रूप में AI इंटरैक्शन के “आदी” हो सकते हैं?
- क्या AI सिस्टम हर गतिविधि पर नज़र रखकर और हर समय ठीक-ठीक यह बताकर कि क्या करना है और क्या कहना है, लोगों को मूलतः “कठपुतली” बना सकते हैं—एक “अच्छी” ज़िंदगी, लेकिन स्वतंत्रता या उपलब्धि के गर्व के बिना
- Black Mirror के रचयिता के साथ बैठकर brainstorm किया जाए, तो ऐसे दर्जनों परिदृश्य बनाना मुश्किल नहीं होगा
- यह सेक्शन 1 की समस्याओं को रोकने के लिए जितना ज़रूरी है, उससे भी आगे बढ़कर Claude के संविधान को बेहतर बनाने के महत्व की ओर इशारा करता है
- यह महत्वपूर्ण लगता है कि AI मॉडल सचमुच उपयोगकर्ताओं के दीर्घकालिक हितों को ध्यान में रखें — उस तरीके से जिसे विचारशील लोग मंज़ूर करें, न कि किसी सूक्ष्म रूप से विकृत तरीके से
-
मानव उद्देश्य
- यह पिछले बिंदु से जुड़ा है, लेकिन AI सिस्टम के साथ किसी खास मानव इंटरैक्शन से अधिक, यह उस बात से संबंधित है कि शक्तिशाली AI वाली दुनिया में मानव जीवन कैसे बदलता है
- क्या इंसान ऐसी दुनिया में उद्देश्य और अर्थ पा सकेंगे?
- मेरा मानना है कि यह दृष्टिकोण का प्रश्न है: जैसा Machines of Loving Grace में कहा गया है, मानव उद्देश्य इस पर निर्भर नहीं करता कि कोई किसी चीज़ में दुनिया का सर्वश्रेष्ठ बने
- इंसान उन कहानियों और परियोजनाओं के ज़रिए, जिन्हें वे प्यार करते हैं, बहुत लंबे समय तक भी उद्देश्य पा सकते हैं
- आर्थिक मूल्य-सृजन और आत्म-मूल्य तथा अर्थ के बीच के संबंध को तोड़ना होगा
- लेकिन यह वह परिवर्तन है जो समाज को करना होगा, और इसे ठीक से न संभाल पाने का जोखिम हमेशा रहेगा
-
-
आशा
- इन सभी संभावित समस्याओं के लिए आशा यह है कि अगर हम ऐसे शक्तिशाली AI वाली दुनिया में हों जिस पर हमें भरोसा हो कि वह हमें मारेगा नहीं, दमनकारी सरकारों का औज़ार नहीं होगा, और सचमुच हमारे लिए काम करेगा, तो हम इन समस्याओं का अनुमान लगाने और उन्हें रोकने के लिए खुद AI का इस्तेमाल कर सकते हैं
- लेकिन इसकी गारंटी नहीं है—बाक़ी सभी जोखिमों की तरह इसे भी सावधानी से संभालना होगा
निष्कर्ष: मानवता की परीक्षा
-
स्थिति की कठिनाई
- इस निबंध को पढ़कर यह आभास हो सकता है कि हम एक भारी-भरकम स्थिति में हैं
- इसे लिखना भी भारी था (यह Machines of Loving Grace के विपरीत था, जो कई वर्षों से मन में गूंज रहे सुंदर संगीत को आकार और संरचना देने जैसा लगा था)
- स्थिति का बहुत बड़ा हिस्सा वास्तव में कठिन है
- AI कई दिशाओं से मानवता के लिए खतरा लाता है
- अलग-अलग जोखिमों के बीच वास्तविक तनाव है, और कुछ को कम करने से, यदि बहुत सावधानी से संतुलन न साधा जाए, तो दूसरे और बिगड़ने का खतरा है
-
प्रमुख तनाव संबंध
- AI systems को इस तरह सावधानी से बनाने के लिए समय लेना कि वे स्वायत्त रूप से मानवता को खतरे में न डालें, इस आवश्यकता के साथ वास्तविक तनाव में है कि लोकतांत्रिक देश सत्तावादी देशों से आगे रहें और उनके अधीन न हों
- लेकिन तानाशाही से लड़ने के लिए जिन AI-enabled tools की ज़रूरत है, वे यदि बहुत आगे बढ़ जाएँ तो अपने ही देशों में अत्याचार बनाने की ओर भीतर की तरफ मुड़ सकते हैं
- AI-चालित आतंकवाद biological misuse के ज़रिए लाखों लोगों को मार सकता है, लेकिन इस जोखिम पर अतिप्रतिक्रिया हमें तानाशाही निगरानी-राज्य की राह पर भी ले जा सकती है
- AI के labor और economic concentration effects अपने आप में गंभीर समस्या हैं, और साथ ही वे हमें जन-आक्रोश, यहाँ तक कि नागरिक अशांति के माहौल में, अन्य समस्याओं का सामना करने को मजबूर कर सकते हैं (हमारी प्रकृति के बेहतर पक्षों पर निर्भर रहने के बजाय)
- सबसे बढ़कर, जोखिमों की sheer संख्या, जिनमें अज्ञात जोखिम भी शामिल हैं, और उन्हें एक साथ संभालने की आवश्यकता, एक धमकी भरी चुनौती बनाती है जिससे मानवता को गुजरना होगा
-
तकनीक रोकने की अवास्तविकता
- पिछले कुछ वर्षों ने यह स्पष्ट कर देना चाहिए था कि तकनीक को रोकने, या यहाँ तक कि उसे काफी धीमा करने का विचार मूलतः टिकाऊ नहीं है
- शक्तिशाली AI systems बनाने का फ़ॉर्मूला हैरान करने वाली हद तक सरल है, इतना कि यह कहा जा सकता है कि डेटा और raw compute के सही संयोजन से वे लगभग अपने-आप उभर आते हैं
- उनका निर्माण शायद उसी क्षण अनिवार्य हो गया था जब मानवता ने transistor का आविष्कार किया, या उससे भी पहले जब उसने आग को नियंत्रित करना सीखा
- यदि एक company इसे नहीं बनाएगी, तो दूसरी लगभग उसी गति से बना लेगी
- यदि लोकतांत्रिक देशों की सभी companies आपसी सहमति या regulatory order से विकास रोक दें या धीमा कर दें, तो सत्तावादी देश बस आगे बढ़ते रहेंगे
- तकनीक के विशाल आर्थिक और सैन्य मूल्य, और किसी सार्थक enforcement mechanism की अनुपस्थिति को देखते हुए, उन्हें रुकने के लिए मनाने का कोई तरीका दिखाई नहीं देता
-
संभावित मार्ग: थोड़ा-सा शमन
- AI development को थोड़ा धीमा करने का एक रास्ता दिखता है जो geopolitics के यथार्थवादी दृष्टिकोण के साथ संगत है
- सत्तावादी देशों की शक्तिशाली AI की ओर कुछ वर्षों की देरी इस तरह संभव है कि उन्हें उसके लिए ज़रूरी संसाधन—यानी chips और semiconductor manufacturing equipment—से वंचित रखा जाए
- इससे लोकतांत्रिक देशों को एक ऐसा buffer मिलेगा जिसे वे "खर्च" कर सकते हैं, ताकि वे सत्तावादी देशों को आराम से पीछे छोड़ते हुए भी जोखिमों पर अधिक ध्यान देकर शक्तिशाली AI को अधिक सावधानी से बना सकें
- लोकतांत्रिक देशों के भीतर AI companies के बीच प्रतिस्पर्धा को industry standards और regulation के मिश्रण से एक साझा कानूनी framework की छतरी के नीचे संभाला जा सकता है
-
नीति-समर्थन की कठिनाई
- Anthropic इस रास्ते का मजबूती से समर्थन करता आया है, जिसमें chip export controls और AI का सावधानीपूर्ण regulation शामिल है
- लेकिन ऐसे commonsense लगने वाले प्रस्ताव भी अमेरिकी policy makers द्वारा बड़े पैमाने पर ठुकरा दिए गए हैं (जबकि यही वह देश है जहाँ इनकी सबसे अधिक ज़रूरत है)
- AI से कमाया जा सकने वाला पैसा इतना अधिक है—शाब्दिक रूप से हर साल खरबों डॉलर—कि सबसे सरल कदम भी AI में निहित political economy को पार करना कठिन पाते हैं
- यही जाल है: AI इतना शक्तिशाली है, और इतना चमकदार पुरस्कार है, कि मानव सभ्यता के लिए उस पर किसी भी तरह की सीमा लगाना बेहद कठिन हो जाता है
-
सार्वभौमिक चुनौती
- जैसा Sagan ने Contact में कल्पना की थी, वैसी एक ही कहानी हज़ारों दुनियाओं में घटित हो सकती है
- कोई species चेतना प्राप्त करती है, औज़ारों का उपयोग सीखती है, तकनीक की exponential rise शुरू करती है, industrialization और nuclear weapons के संकट का सामना करती है, और यदि वह बच जाती है, तो अंततः अपने सबसे कठिन और अंतिम इम्तहान का सामना करती है: रेत को सोचने वाली मशीनों में ढालना सीखना
- क्या वह इस परीक्षा को पार कर Machines of Loving Grace में वर्णित सुंदर समाज बनाती है, या दासता और विनाश के आगे झुक जाती है, यह एक species के रूप में हमारे चरित्र और संकल्प, हमारी बुद्धि और आत्मा पर निर्भर करेगा
-
आशावादी दृष्टिकोण
- अनेक बाधाओं के बावजूद, मेरा विश्वास है कि मानवता के भीतर इस परीक्षा को पार करने की शक्ति है
- मैं उन हज़ारों researchers से प्रोत्साहित और प्रेरित हूँ जिन्होंने AI models को समझने और steer करने, और इन models के चरित्र और constitution को आकार देने में अपना करियर समर्पित किया है
- मुझे लगता है कि इन प्रयासों के निर्णायक समय पर फल देने की अच्छी संभावना है
- मैं इस बात से भी प्रोत्साहित हूँ कि कम-से-कम कुछ companies ने यह घोषित किया है कि वे models को bioterror threats में योगदान देने से रोकने के लिए वास्तविक commercial cost चुकाने को तैयार हैं
- मैं इस बात से प्रोत्साहित हूँ कि कुछ साहसी लोगों ने मुख्यधारा की राजनीतिक हवाओं का विरोध करते हुए AI systems पर तर्कसंगत guardrails के शुरुआती बीज बोने वाला legislation पारित किया
- मैं इस बात से प्रोत्साहित हूँ कि जनता समझती है कि AI के साथ जोखिम जुड़े हैं और वह चाहती है कि उन जोखिमों का समाधान किया जाए
- मैं दुनिया भर में स्वतंत्रता की अडिग भावना और अत्याचार का प्रतिरोध करने के संकल्प से प्रोत्साहित हूँ
-
कार्रवाई का आह्वान
- सफल होने के लिए हमें अपने प्रयासों को तेज़ करना होगा
- पहला कदम यह है कि तकनीक के सबसे निकट रहने वाले लोग मानवता की स्थिति के बारे में सच बोलें (मैं हमेशा यही करने की कोशिश करता रहा हूँ, और इस निबंध में इसे अधिक स्पष्ट और अधिक तात्कालिक रूप में किया है)
- अगला कदम दुनिया के विचारकों, policy makers, companies और नागरिकों को इस मुद्दे की निकटता और सर्वोच्च महत्व के बारे में आश्वस्त करना है—कि हर दिन समाचारों पर छाए रहने वाले हज़ारों अन्य मुद्दों की तुलना में इस पर विचार और political capital लगाना सार्थक है
- फिर साहस का समय आएगा, जब आर्थिक हितों और व्यक्तिगत सुरक्षा पर ख़तरे के बावजूद पर्याप्त लोग मुख्यधारा के रुझानों के विरुद्ध खड़े होंगे और सिद्धांतों पर डटे रहेंगे
-
समापन
- आगे आने वाले कुछ वर्ष लगभग असंभव रूप से कठिन होंगे, और वे हमसे उससे अधिक माँगेंगे जितना हम सोचते हैं कि दे सकते हैं
- लेकिन researchers, leaders और citizens के रूप में अपने समय में मैंने इतना साहस और उदात्तता देखी है कि मुझे विश्वास है मानवता जीत सकती है
- जब मानवता सबसे अंधेरे हालात में होती है, तब भी उसके पास अंतिम क्षण में जीत के लिए आवश्यक शक्ति और बुद्धि जुटाने का एक तरीका होता है
- खोने के लिए समय नहीं है
अभी कोई टिप्पणी नहीं है.