- अमेरिकी सरकार ने आर्टिफिशियल इंटेलिजेंस (AI) के सुरक्षित और जिम्मेदार विकास तथा उपयोग के लिए ‘AI राष्ट्रीय कार्ययोजना (AAIAP)’ की घोषणा की
- AI अनुसंधान एवं विकास निवेश का विस्तार, विश्वसनीयता और जवाबदेही सुनिश्चित करना, प्रतिभा विकास, इन्फ्रास्ट्रक्चर और डेटा की पहुंच मजबूत करना, वैश्विक सहयोग सहित 5 प्रमुख रणनीतिक लक्ष्य प्रस्तुत किए गए
- AI से सामाजिक और आर्थिक लाभ मिलते हुए भी जोखिमों को न्यूनतम करने के लिए कानूनी और नीतिगत आधार तैयार करने पर जोर दिया गया
- AI के सैन्य और गैर-सैन्य दुरुपयोग की रोकथाम, नैतिकता और मानवाधिकारों की रक्षा, तथा राष्ट्रीय सुरक्षा और सार्वजनिक हित के लिए उपायों पर बल दिया गया
- सरकार और निजी क्षेत्र के सहयोग के जरिए AI innovation और मानक-निर्माण को साथ-साथ आगे बढ़ाने की बात कही गई
AI राष्ट्रीय कार्ययोजना का अवलोकन
- अमेरिकी प्रशासन ने समाज के सभी क्षेत्रों पर AI तकनीक के प्रभाव को देखते हुए राष्ट्रीय स्तर की एक समग्र रणनीति की आवश्यकता मानी
- innovation को प्रोत्साहन और जोखिम नियंत्रण—इन दो उद्देश्यों को एक साथ हासिल करने की नीति दिशा प्रस्तुत की गई
1. AI अनुसंधान एवं विकास (R&D) निवेश और इन्फ्रास्ट्रक्चर सुदृढ़ीकरण
- अमेरिका AI की प्रगति और वैश्विक प्रतिस्पर्धात्मकता बढ़ाने के लिए संघीय सरकार स्तर पर R&D निवेश का विस्तार करेगा
- AI अनुसंधान के लिए आवश्यक supercomputing, उच्च-गुणवत्ता datasets, open source tools जैसी सार्वजनिक इन्फ्रास्ट्रक्चर का विस्तार किया जाएगा
- शोधकर्ताओं, startups और अल्पसंख्यक समुदायों तक डेटा और computing resources की पहुंच उपलब्ध कराई जाएगी
- राष्ट्रीय स्तर पर विशेष उद्योगों (स्वास्थ्य, जलवायु, कृषि, ऊर्जा आदि) पर केंद्रित AI अनुप्रयोग अनुसंधान को प्राथमिक समर्थन दिया जाएगा
- बुनियादी विज्ञान, विश्वसनीयता, सुरक्षा और ethical AI जैसे क्षेत्रों में बहुविषयक R&D निवेश का विस्तार किया जाएगा
2. विश्वसनीय और जवाबदेह AI ecosystem का निर्माण
- AI की पारदर्शिता, सुरक्षा और explainability के मानक सरकार की अगुवाई में तैयार कर निजी क्षेत्र तक फैलाए जाएंगे
- AI की निष्पक्षता (भेदभाव-रहित उपयोग, असमानता में कमी), privacy protection और नैतिक अनुपालन को कानून और संस्थागत ढांचे के जरिए सुनिश्चित किया जाएगा
- algorithmic risk assessment, impact analysis, और वास्तविक उपयोग से पहले testing और validation systems को मजबूत किया जाएगा
- उच्च-जोखिम वाले AI उपयोग (जैसे: स्वास्थ्य, वित्त, सार्वजनिक सुरक्षा आदि) के लिए अतिरिक्त regulation और निरीक्षण लागू किया जाएगा
- AI की विफलता या दुरुपयोग की स्थिति में त्वरित जवाबदेही तय करने और राहत प्रक्रिया विकसित की जाएगी
3. AI प्रतिभा और workforce विकास
- प्राथमिक शिक्षा से लेकर विश्वविद्यालय और वयस्क शिक्षा तक AI literacy education को व्यापक रूप से मजबूत किया जाएगा
- वंचित समुदायों और पिछड़े क्षेत्रों के छात्रों की AI शिक्षा में भागीदारी के लिए समर्थन बढ़ाया जाएगा
- AI क्षेत्र में PhD और विशेषज्ञों का विकास तथा कामकाजी पेशेवरों के लिए reskilling/upskilling programs का विस्तार किया जाएगा
- सरकार और सार्वजनिक संस्थानों की AI क्षमता बढ़ाने के साथ निजी और औद्योगिक प्रतिभा के साथ आदान-प्रदान और सहयोग को समर्थन दिया जाएगा
- AI प्रतिभा आकर्षित करने, immigration policy, और विदेशी विशेषज्ञों की भर्ती को सक्रिय करने के उपाय भी शामिल हैं
4. डेटा और इन्फ्रास्ट्रक्चर की पहुंच का विस्तार
- उच्च-गुणवत्ता, निष्पक्ष और सुरक्षित डेटा के संग्रह, साझाकरण और उपयोग के लिए नीतियां बनाई जाएंगी
- सार्वजनिक डेटा को खोलने के साथ निजी डेटा से जुड़ाव और interoperability सुनिश्चित की जाएगी
- डेटा privacy, security और ethical standards को स्पष्ट किया जाएगा
- AI शोधकर्ताओं, developers, कंपनियों, स्कूलों और non-profit संगठनों को supercomputing, cloud जैसी इन्फ्रास्ट्रक्चर के साझा उपयोग का समर्थन मिलेगा
- डेटा standardization, quality management, और data governance systems को मजबूत किया जाएगा
5. वैश्विक AI governance और अंतरराष्ट्रीय सहयोग
- AI नैतिकता, सुरक्षा और विश्वसनीयता के लिए वैश्विक standards और norms के निर्माण में नेतृत्व किया जाएगा
- G7, OECD, UN और सहयोगी देशों के साथ नीति, तकनीक और अनुसंधान सहयोग को मजबूत किया जाएगा
- AI के weaponization, surveillance, और authoritarian misuse की रोकथाम के लिए अंतरराष्ट्रीय एकजुटता बनाई जाएगी
- वैश्विक AI standardization, interoperability, और data portability सुनिश्चित करने को आगे बढ़ाया जाएगा
- कम-विकसित और संवेदनशील देशों की AI क्षमता निर्माण और अंतरराष्ट्रीय सहायता का विस्तार किया जाएगा
कार्यान्वयन और समीक्षा तंत्र
- White House Office of Science and Technology Policy (OSTP) के नेतृत्व में पूरी रणनीति का समन्वय किया जाएगा
- प्रत्येक विभाग (रक्षा, वाणिज्य, शिक्षा, ऊर्जा, स्वास्थ्य आदि) अपनी विस्तृत कार्यान्वयन योजना तैयार और संचालित करेगा
- सरकार-निजी क्षेत्र परामर्श तंत्र, विशेषज्ञ समूह और नागरिकों की राय-संग्रह प्रक्रिया के जरिए हितधारकों की भागीदारी सुनिश्चित की जाएगी
- लक्ष्य-वार विस्तृत roadmap, performance indicators, और नियमित कार्यान्वयन समीक्षा एवं रिपोर्टिंग प्रणाली बनाई जाएगी
- नीति क्रियान्वयन प्रक्रिया में पारदर्शिता, समावेशन और जवाबदेही को मजबूत किया जाएगा
निष्कर्ष और आगे की चुनौतियां
- AI innovation को बढ़ावा और जोखिमों को न्यूनतम करना—इन दोनों लक्ष्यों को साथ लेकर चलने पर जोर है
- तकनीकी प्रगति के साथ नैतिक, कानूनी और सामाजिक मानकों की स्थापना अनिवार्य बताई गई है
- वैश्विक नेतृत्व, अंतरराष्ट्रीय सहयोग, प्रतिभा विकास, और regulation तथा governance को मजबूत करना मध्यम और दीर्घकालिक प्रमुख कार्य बताए गए हैं
- व्यावहारिक regulation, निरंतर समीक्षा, और समाज के सभी वर्गों की सक्रिय भागीदारी को सफल नीति की शर्त के रूप में प्रस्तुत किया गया है
1 टिप्पणियां
Hacker News की राय
यह तो स्पष्ट है कि AI आर्थिक विकास के लिए बेहद महत्वपूर्ण क्षेत्र है, लेकिन मैं यह भी ज़ोर देकर कहना चाहूँगा कि clean energy भी उतनी ही महत्वपूर्ण है। अभी दोनों क्षेत्र एक अहम मोड़ पर हैं। लेकिन अमेरिका AI में आगे निकलने की कोशिश कर रहा है, जबकि ऊर्जा क्षेत्र में ऐसे व्यवहार कर रहा है मानो कुछ हो ही नहीं रहा और वह वास्तविकता का सामना नहीं कर रहा। यह रवैया अगले 20 वर्षों में ऊर्जा क्षेत्र में अमेरिका को अपनी आर्थिक नेतृत्वकारी भूमिका दूसरे देशों के हाथों गंवाने के जोखिम में डाल सकता है। इससे भी बड़ी समस्या यह है कि सरकार का मौजूदा रुख अमेरिकी ऊर्जा कंपनियों को पुराने तरीकों पर टिके रहने के लिए प्रेरित कर रहा है, और नतीजतन वे 10~20 साल के भीतर दिवालिया भी हो सकती हैं। तब अमेरिका ऐसी स्थिति में फँस सकता है जहाँ उसे रणनीतिक कारणों से इनका bailout करना पड़े
open source और open weight AI को प्रोत्साहित करने की बात देखना अच्छा है। खास तौर पर यह बात प्रभावशाली लगी कि open weight और open source एक ही चीज़ नहीं हैं, इसे साफ़ तौर पर अलग किया गया है
अगर असली समर्थन, यानी funding जैसी चीज़ें ही नहीं हैं, तो सिर्फ़ सरकार के प्रोत्साहन का कोई खास व्यावहारिक मतलब नहीं है। दस्तावेज़ के उस हिस्से को देखें (PDF फ़ाइल देखें) तो पता चलता है कि इस बारे में लगभग कुछ भी नहीं है
यह जानने की उत्सुकता है कि अमेरिका की बढ़त सुनिश्चित करने के मुख्य लक्ष्य और open weight नीति एक साथ कैसे चल सकती हैं। open weight सार्वजनिक होते ही कोई भी उस तकनीक का उपयोग कर सकता है
सरकार की "निष्पक्ष" models में रुचि और open source नीति एक-दूसरे से कैसे टकराती या जुड़ती हैं, यह जानना दिलचस्प है। खासकर सरकार जिस तरह की 'निष्पक्षता' सोचती है, वह मुझे उल्टा डरावनी लगती है
यह लगभग अर्थहीन नीति है
ये सारी नीतियाँ आखिरकार control की इच्छा से पैदा हुई लगती हैं। असली पारस्परिक लाभ, accuracy, precision में कोई रुचि नहीं है; मकसद बस यह है कि जिनके पास सत्ता है वे model के open weights और source को नियंत्रित कर सकें ताकि बिना मंज़ूरी वाले विचार, सवाल और स्वतंत्र सोच को रोका जा सके
मेरे हिसाब से सबसे महत्वपूर्ण बात यह है कि इसने open source, open weight AI models पर एक मज़बूत रुख अपनाया है। यह रुख EU AI Act जैसे कुछ अन्य regulations से टकराता है। EU AI Act open weight models पर सीधा प्रतिबंध नहीं लगाता, लेकिन FLOPS 10²⁵ से कम परियोजनाओं के लिए अपवाद रखते हुए भी decentralized open projects के लिए काफ़ी बोझिल regulatory environment बनाता है
"नीति सिफ़ारिशें" वाले हिस्से को देखें तो पता चलता है कि ज़्यादातर बातें सिर्फ़ शब्द हैं, उनमें वास्तविक सामग्री बहुत कम है
ऐसा लगता है कि open source और renewable energy की बजाय non-renewable energy और सरकार द्वारा थोपे गए ideology पर ज़्यादा ध्यान है। समझ नहीं आता कि यह व्याख्या भोला आशावाद है या फिर वास्तविकता से आँख मूँदना
ऊर्जा वाले हिस्से में AI को बिजली देने के लिए nuclear fusion का ज़िक्र है, लेकिन solar का ज़िक्र नहीं है—यह लगभग मज़ाक जैसा लगता है
तकनीकी रूप से देखें तो solar power भी अंतरिक्ष से आए fusion energy की photons के रूप में डिलीवरी ही है, इसलिए व्यापक अर्थ में उसे भी fusion कह सकते हैं
यह जानने की जिज्ञासा है कि पूरे AI infrastructure को solar से चलाने के लिए कितनी ज़मीन चाहिए होगी। मैं यह तर्क देना चाहता हूँ कि solar व्यावहारिक नहीं है, लेकिन उतनी ही सच्ची जिज्ञासा भी है
ऐसा नहीं लगता कि AI कंपनियों को सिर्फ़ renewable energy इस्तेमाल करने से रोकने का कोई तरीका है
मेरे hometown में खेती की ज़मीन पर बड़े पैमाने पर solar लगाए गए हैं। solar घरों की छतों के लिए अच्छा है, लेकिन data center को 24 घंटे चलाने के लिए battery के बिना इसका इस्तेमाल मुश्किल है
AI की बिजली माँग और solar generation curve आपस में मेल नहीं खाते
अमेरिकी AI Action Page के बाद एक और ध्यान देने योग्य follow-up policy है PREVENTING WOKE AI IN THE FEDERAL GOVERNMENT. इस दस्तावेज़ में DEI को race, gender से जुड़े तथ्यों का विकृतिकरण, परिणाम-आधारित diversity, critical race theory, transgender, unconscious bias, intersectionality, systemic racism जैसे concepts का परिचय, discrimination आदि के रूप में परिभाषित किया गया है। इसमें दावा किया गया है कि DEI, truth के प्रति commitment की क़ीमत पर reliable AI के लिए ख़तरा बनता है
व्यवहार में Action Plan के लगभग सभी लक्ष्य AI के उपयोग को बढ़ावा देने पर केंद्रित हैं, और सिर्फ़ आख़िरी लक्ष्य कहता है कि "कानूनी प्रणाली में synthetic media से लड़ना" है। जबकि LLM सहित ज़्यादातर AI की एक मुख्य क्षमता synthetic media generation है, इसलिए यह लक्ष्य उसके साथ कैसे संगत है, यह समझना मुश्किल है
पहली पंक्ति व्यंग्य है या गंभीर, यह समझना मुश्किल है। पूरा दस्तावेज़ ऐसा लगता है जैसे industry lobbying group की माँग हो। कानूनी प्रणाली में LLM के उपयोग का उदाहरण लें तो यह वैसा है जैसे अनुभवी वकील किसी junior से मसौदा तैयार करवाता है। समस्या तब आती है जब उस मसौदे की समीक्षा किए बिना सीधे अदालत में जमा कर दिया जाता है। तब कमज़ोर कानूनी तर्क, झूठे precedent citations, और गलत दावों के समर्थन जैसी समस्याएँ पैदा होती हैं
अगर पूरे दस्तावेज़ को Patrick Bateman की आवाज़ में पढ़ें तो शायद वह ज़्यादा समझ में आए
कुछ लोग इसे इस तरह भी देखते हैं कि AGI पर पहले कब्ज़ा करना सबसे महत्वपूर्ण है। जो AGI को नियंत्रित करेगा, वही दुनिया पर शासन करने की शक्ति पा सकता है
यह हिस्सा watermarking, यानी AI synthetic media की पहचान और प्रमाणन व्यवस्था, से जुड़ा है। उदाहरण के लिए, malicious deepfakes के कारण कानूनी न्याय को नुकसान से बचाने के लिए अलग standards की ज़रूरत है। उसी के तहत अदालतों और न्यायिक संस्थाओं को deepfake response tools देना, forensic benchmark guidelines बनाना, और Federal Rules of Evidence में संशोधन जैसे policy proposals दिए गए हैं
इसमें कहा गया है कि "अगर federal government को LLM developers के साथ contracts renew करने हैं, तो केवल वही systems स्वीकार किए जाएँगे जो इस सरकार द्वारा मान्य 'objective और unbiased' परिणाम दें।" यानी AI output को इस प्रशासन के truth standards के अनुरूप होना चाहिए
मैंने पहले ऐसी ही चिंता उठाई थी तो नकारात्मक प्रतिक्रिया मिली थी। शायद इसलिए कि यह LLM समर्थक माहौल से अलग बात थी।
संबंधित दस्तावेज़ में ऐसे उदाहरण दिए गए हैं जहाँ DEI की अवधारणा AI में constraint की तरह काम करती है, और यह भी दावा है कि 'truth' के प्रति जुनून reliable AI के अस्तित्व तक को ख़तरे में डालता है
"top-down ideological bias नहीं" जैसी अभिव्यक्ति असल में लगभग वही अर्थ रखती है जो पहले "political correctness" से लिया जाता था
अगर इस तरह की "अमेरिकी शैली की सच्चाई" के आगे झुकना पड़े, तो मैं तो IT industry ही छोड़ना पसंद करूँगा। कम से कम EU AI Act की वजह से इस तरह की exposure कुछ समय के लिए टल रही है, यह राहत की बात है
"objective" और "top-down bias नहीं" कहना मुझे वैसा लगता है जैसे तय कर दिया जाए कि 2+2=5 है और यह मानने पर मजबूर किया जाए कि पूर्वी एशिया के साथ हमेशा युद्ध चल रहा है
मैं यह बताना चाहता हूँ कि Action Plan में गिनाई गई ज़्यादातर बातें—जैसे "प्रशासनिक deregulation, AI को स्वतंत्र रूप से अपनाना, open source को प्रोत्साहन, अमेरिकी मूल्यों की रक्षा, AI scientific datasets सुरक्षित करना, सरकार में AI adoption तेज़ करना"—असल नीतियों से टकराती हैं। सरकार के हालिया वास्तविक कदम इन घोषित लक्ष्यों के ठीक उलट हैं। व्यक्तिगत रूप से मुझे यह सब इस समय इतना ख़तरनाक लगता है कि इसे गंभीरता से लेना मुश्किल है
लगता है सफलता का फ़ॉर्मूला यह है कि regulation तो न रखो, लेकिन राजनीतिक उद्देश्य ज़रूर आगे बढ़ाओ
पूरा दस्तावेज़ कुछ-कुछ "AI के ज़रिए अमेरिका का महान हित" जैसी propaganda सामग्री के ज़्यादा क़रीब लगता है
इसमें "प्रशासनिक deregulation" लिखा है, लेकिन हक़ीक़त में GPU किराए पर लेने और training करने पर कोई regulation है ही नहीं
निष्कर्ष यही है कि सिर्फ़ शब्दों वाली घोषणाएँ अर्थहीन हैं। बिना अमल वाले वादों को गंभीरता से लेने वाले लोग बहुत कम होते हैं
ज़्यादातर सामग्री चीनी कम्युनिस्ट पार्टी शैली के "slogan propaganda" के अधिक क़रीब लगती है। फ़र्क बस इतना है कि अमेरिका में authoritarian states की तरह सरकार के पास पूरे समाज को एक साथ लामबंद करने की क्षमता नहीं है, इसलिए इस तरह का खोखला माहौल बनाना शायद ठीक से काम नहीं करेगा
महामारी के बाद से "योजना" शब्द का मतलब ही कमज़ोर लगने लगा है। वजह है राष्ट्रीय स्तर की अक्षम्यता। मेरा अनुमान है कि ऐसे Action Plan अंततः भाषणों और budget spending से आगे कोई ठोस परिणाम नहीं देंगे
ऐसे में लाखों डॉलर के contracts बिना किसी वास्तविक नतीजे के ही खर्च हो जाएँगे। conservative ideology का तर्क यही है कि विशेषाधिकार सिर्फ़ कुछ वर्गों को मिले और आम लोगों की healthcare को विलासिता मानकर काट दिया जाए
काग़ज़ी नीतियों से real-world समस्याएँ हल करने की कोशिश अमेरिका, ब्रिटेन और EU की बहुत पुरानी बीमारी है
कनाडा में तो केवल state broadcaster पर सरकारी कार्यक्रमों की घोषणा करके भी, बिना वास्तविक क्रियान्वयन या budget support के, जनता का समर्थन पाया जा सकता है। यह कुछ-कुछ Pravda जैसा लगता है
इसमें कहा गया है कि "अमेरिकी healthcare industry में AI adoption धीमा है क्योंकि तकनीक पर अविश्वास, जटिल regulation, और governance व risk management standards की स्पष्ट कमी है; इसलिए federal स्तर पर consistent प्रयास की ज़रूरत है," लेकिन मुझे संदेह है कि healthcare में "पहले कर लो, बाद में ठीक कर लेंगे" वाला approach उपयुक्त है। चिकित्सा क्षेत्र में पहले से स्पष्ट और सख़्त standards हैं, और यह कोई ऐसा क्षेत्र नहीं है जहाँ trial-and-error systems सहजता से फिट हों
मेरा अनुभव है कि अमेरिकी healthcare system पहले से ही टूटने की कगार पर है। बचपन के rural doctor की देखभाल और आज के "fast-food style" emergency care system के बीच का अंतर बहुत तीखे ढंग से महसूस होता है। हाल की medical visits में मुझे सिर्फ़ medical staff की उदासीनता और अयोग्यता ही दिखी। हर बार इलाज के बाद भी हालत बेहतर नहीं हुई, बस भारी-भरकम bills मिले। dentistry भी private equity के कब्ज़े में जाकर बेहद ख़राब हो चुकी है। आगे से मैं अपनी मर्ज़ी से किसी medical facility में तभी जाऊँगा जब मौत का जोखिम हो
AI-based treatment के लिए सख़्त validation ज़रूरी है, लेकिन billing/administration में AI लाने से बड़ी cost savings हो सकती हैं। अमेरिकी healthcare cost का बड़ा हिस्सा administrative overhead है
अमेरिकी healthcare पहले से ही बेहद कमज़ोर है, और appointment delays, misdiagnosis, inefficiency के कारण हज़ारों मौतें हो रही हैं। diagnosis में AI पहले ही ज़्यादातर मामलों में doctors से बेहतर है
अगर risks को सही तरह quantify किया जाए, तो "move fast and break things" रणनीति healthcare में सकारात्मक बदलाव ला सकती है। अगर experimental treatment का जोखिम, रोज़मर्रा की बीमारियों के इलाज में देरी से होने वाली मौत के जोखिम से ज़्यादा नहीं है, तो तेज़ innovation लंबे समय में फ़ायदेमंद हो सकती है। वास्तव में ऐसे अध्ययन हैं जिनमें emergency room में AI ने doctors से बेहतर प्रदर्शन किया।
चूँकि अमेरिकी healthcare system पहले ही अपनी सीमा पर पहुँच चुका है, इसलिए शायद यह इससे बदतर नहीं हो सकता; बल्कि अगर यह और बिगड़े भी, तो अंततः उसे सुधार के रूप में ही देखा जा सकता है