- अमेरिका का रक्षा विभाग(DoW) Anthropic को Defense Production Act लागू करने की धमकी देकर उस पर सैन्य उपयोग के लिए मॉडल उपलब्ध कराने और सेना की मांगों के मुताबिक उन्हें ढालने का दबाव डाल रहा है
- Anthropic इस बात से इनकार कर रहा है कि उसके मॉडल का उपयोग घरेलू बड़े पैमाने की निगरानी या मानव नियंत्रण के बिना स्वायत्त घातक कार्रवाई में किया जाए, और इसके प्रतिशोध में रक्षा विभाग कंपनी को supply chain risk के रूप में नामित करने की कोशिश कर रहा है
- रक्षा विभाग Anthropic से ठुकराई गई शर्तें मनवाने के लिए Google और OpenAI से भी बातचीत कर रहा है, और कंपनियों को एक-दूसरे के खिलाफ प्रतिस्पर्धा में खड़ा करने की कोशिश कर रहा है
- इसके जवाब में Google और OpenAI के 709 मौजूदा कर्मचारी (Google 614, OpenAI 95) ने एक संयुक्त खुला पत्र जारी कर दोनों कंपनियों से एकजुट होकर रक्षा विभाग की मांगों को ठुकराने का आग्रह किया है
- यह पत्र AI के सैन्य दुरुपयोग के खिलाफ आंतरिक प्रतिरोध और उद्योग-स्तरीय एकजुटता की प्रतीकात्मक कार्रवाई है
खुले पत्र के मुख्य बिंदु
- रक्षा विभाग Anthropic के खिलाफ Defense Production Act लागू करने और उसे supply chain risk घोषित करने की धमकी दे रहा है
- मांग यह है कि Anthropic अपने AI मॉडल सेना को उपलब्ध कराए और उन्हें सैन्य जरूरतों के अनुसार अनुकूलित करे
- Anthropic घरेलू निगरानी और स्वायत्त घातक हथियारों में उपयोग पर रोक के अपने आंतरिक सिद्धांत पर कायम है
- Anthropic के इनकार के बाद रक्षा विभाग Google और OpenAI के साथ बातचीत कर रहा है
- इसे ऐसी रणनीति के रूप में बताया गया है जो हर कंपनी में यह डर पैदा करती है कि कहीं दूसरी कंपनी पहले झुक न जाए
- यह पत्र ऐसे विभाजनकारी प्रयासों को रोकने के लिए साझा रुख की सार्वजनिक घोषणा का महत्व रखता है
- “यह रणनीति तभी काम करती है जब हमें एक-दूसरे की स्थिति का पता न हो” जैसे वाक्य के जरिए एकजुटता की जरूरत पर जोर दिया गया है
हस्ताक्षरकर्ता और भागीदारी की स्थिति
- Google के 614 कर्मचारी और OpenAI के 95 कर्मचारी ने हस्ताक्षर किए
- सभी को मौजूदा कर्मचारी के रूप में सत्यापित किया गया
- कुछ ने अपने नाम से, जबकि कई ने Anonymous रूप में भाग लिया
- हस्ताक्षर गुमनाम या नाम सहित दोनों तरह से किए जा सकते थे, और सभी हस्ताक्षरों को रोजगार सत्यापन प्रक्रिया के जरिए परखा गया
- सत्यापन के तरीके: कंपनी ईमेल प्रमाणीकरण, Google Form लॉगिन, या पहचान पत्र की फोटो जमा करना आदि
- गुमनाम हस्ताक्षरकर्ताओं की व्यक्तिगत जानकारी सत्यापन के 24 घंटे के भीतर स्वतः हटा दी जाती है
पत्र का महत्व
- AI कंपनियों के भीतर सैन्य उपयोग के लिए नैतिक सीमाएं तय करने का यह एक स्पष्ट उदाहरण है
- Google और OpenAI के कर्मचारियों ने सार्वजनिक रूप से यह रुख रखा कि वे कंपनियों के बीच प्रतिस्पर्धा से ऊपर साझा सिद्धांतों को प्राथमिकता देते हैं
- यह AI की स्वायत्त घातक और निगरानी तकनीकों के दुरुपयोग के खिलाफ उद्योग के भीतर से आई एक अहम रोक-टोक के रूप में महत्वपूर्ण है
3 टिप्पणियां
अमेरिकी खुफिया एजेंसियों के स्तर पर हों, तो लगता है कि वे इसे खुद भी विकसित कर सकती थीं.... बल्कि training के लिए डेटा इकट्ठा करना तो वे और बेहतर कर सकती होंगी
वाह
Hacker News की राय
यह मामला अमेरिकी अर्थव्यवस्था और पूरे rule of law पर कहीं बड़ा असर डाल सकता है
अगर सरकार राष्ट्रीय सुरक्षा के नाम पर बनाए गए procurement rules का इस्तेमाल करके Anthropic को ‘वफादारी की कमी’ के लिए सज़ा दे सकती है, तो आगे Apple या Amazon जैसी दूसरी कंपनियां भी उसी जोखिम में होंगी
यह अमेरिका के लिए एक अहम turning point का क्षण है
Anthropic ने यह साफ़ कहा कि उसका मॉडल अमेरिकी रक्षा विभाग के ‘बड़े पैमाने पर स्वचालित हत्या’ वाले उद्देश्य के अनुरूप नहीं है, यह समझदारी थी
LLM से हथियार चलाना ऐतिहासिक रूप से भी एक भयानक गलती है
अगर Anthropic ढहता है, तो यह अमेरिका पर भरोसे के ताबूत में एक और कील होगी
subscription business चलाने वाली कंपनियां राष्ट्रपति की एक बात से ही महत्वपूर्ण tools खो देंगी, और फिर सोचेंगी कि क्या दूसरी अमेरिकी कंपनियों पर निर्भर रहना सुरक्षित है
आजकल एक Truth Social पोस्ट से वह काम एक दिन में हो जाता है, जिसमें पहले कई साल लगते थे
आखिरकार कोई न कोई रक्षा विभाग की मांग मान ही लेगा, और Anthropic टिक भी गया तो नतीजा नहीं बदलेगा
रक्षा विभाग का उन्हें ‘supply chain vulnerability’ कहना गलती थी। बस DPA इस्तेमाल करके काम करवाते तो यह कहीं सस्ता और शांत रहता
जैसे पहले नाजी जर्मनी से वैज्ञानिक भागकर अमेरिका आए और Manhattan Project में शामिल हुए थे, वैसे ही इस बार AI प्रतिभा अमेरिका छोड़ देगी
अपने देश के भीतर बड़े पैमाने की निगरानी शायद अपने नागरिकों को सहनीय लगे, लेकिन अगर कोई दूसरा देश वही करे तो अमेरिकियों को कैसा लगेगा
ऐसी नीतियां अंततः पूरी दुनिया को एक-दूसरे की निगरानी करने की छूट देती हैं
उसमें जैसे यह संकेत था कि अगर अमेरिकी नागरिकों की जान को खतरा न हो, तो विदेशी surveillance या autonomous weapons ठीक हैं
समझ नहीं आता कि यह कुछ अमेरिकियों की वास्तविक सोच है, या कट्टर राष्ट्रवादियों को लुभाने वाली भाषा
आजकल सरकार जो कर रही है, उसे देखकर चिंता होती है कि ऐसे लोगों के साथ क्या होगा
अमेरिका बहुत लंबे समय तक महाशक्ति बना रहा, और शायद इसी कारण ‘हम हमेशा सही हैं’ वाली सत्ता-लत में फंस गया है
कंपनियां आखिरकार लोगों से ही बनी होती हैं, इसलिए सरकार अगर नीति थोपती है तो innovation मरता है
बेहतरीन वैज्ञानिकों और इंजीनियरों को ज़बरदस्ती झुकाना बर्बादी है
लेकिन सरकार का हर तरह का लेन-देन रोक देना हद से ज्यादा हो सकता है
उदाहरण के लिए, अगर कोई canned tomato company कहे कि “इसे war on terror में मत इस्तेमाल करो”, तो सरकार का उस कंपनी से बचना तर्कसंगत हो सकता है
सत्ता चली भी जाए, तो वह एकाधिकार खत्म नहीं होता। खासकर तब, जब नेता समाज के प्रभावशाली लोगों को कमज़ोरियों के ज़रिए नियंत्रित कर रहा हो
Anthropic के बयान में आया “घरेलू बड़े पैमाने की निगरानी और autonomous killing” का विरोध एक जाल है
‘घरेलू’ शब्द का कोई खास मतलब नहीं है।
Eyes agreements के मुताबिक, देश एक-दूसरे के नागरिकों का data share करके अपने ही नागरिकों की निगरानी पर लगे प्रतिबंध को दरकिनार करते हैं
आखिर में सभी देश एक-दूसरे की निगरानी करते हैं, और कानून बस जनता को तसल्ली देने वाली सजावट रह जाते हैं
spy bots के लिए नागरिकता जैसी कोई अवधारणा नहीं होती, और हर digital activity निगरानी के दायरे में आती है
अगर Google या TikTok यह कर सकते हैं, तो सरकार या ChatGPT जैसी agentic AI भी निश्चित रूप से कर सकती है
अभी जो हो रहा है, वह AI का मुद्दा नहीं बल्कि loyalty test है
सरकारी फंडिंग और वफादारी का लेन-देन, और हर किसी के सामने आने वाला चुनाव का क्षण
आखिरकार साझेदार अपराधी बन जाना ही वफादारी का सबूत बनने वाली दुनिया है
इसलिए उम्मीद मत करो, मांग करो और प्रतिरोध करो
EmbeddingGemma या Qwen3 जैसे models से भी पर्याप्त data clustering हो सकती है
अमेरिका पहले ही command economy की तरह चल रहा है
कोविड के समय भी वह ‘private company’ की बाहरी शक्ल के नीचे सिर्फ सरकारी खर्च से बढ़ रहा था
अगर रक्षा विभाग के पास private sector से बेहतर AI नहीं है, तो यह उसकी अयोग्यता की स्वीकारोक्ति है
अब सैन्य ढांचे में सुधार और अक्षम नेतृत्व को बदलना चाहिए
और सरकार के पास Anthropic से बेहतर generative AI न होना मुझे स्वाभाविक लगता है
सत्ता बदल भी जाए, रक्षा खर्च बढ़ता रहेगा, और वह पैसा उन कंपनियों तक जाएगा जिन्हें लोगों को मारने से फर्क नहीं पड़ता
इसे Eisenhower की चेतावनी के सच होने जैसा देखा जा सकता है
फर्क बस इतना था कि capitalism उपलब्धि के आधार पर elites चुनता है, लेकिन 2011 के बाद से वह फर्क भी धुंधला पड़ गया है
अब तक की घटनाओं को timeline में समेटा गया है
Anthropic को supply chain security risk घोषित करने की चर्चा के साथ, कंपनी को राष्ट्रीय सुरक्षा के नाम पर अपने नियंत्रण में लेने की धमकी भी दी गई थी
अनुमान यह है कि अंततः OpenAI के साथ भी कुछ ऐसा ही होगा—मुनाफा निजी, नुकसान सामाजिक
एक साइट OpenAI या Google के वर्तमान और पूर्व कर्मचारियों में खास राजनीतिक झुकाव वाले लोगों की पहचान संबंधी जानकारी इकट्ठा कर रही है
बताया जाता है कि वह company email, employee badge photo जैसी चीज़ों से verification मांगती है, और data अमेरिकी cloud में store करती है
इसे चलाने वाला व्यक्ति anonymous है, और लगता है कि इस data का इस्तेमाल अलग-अलग ताकतें कई उद्देश्यों के लिए कर सकती हैं
“हम आशा करते हैं कि नेता मतभेद भुलाकर मिलकर इनकार करेंगे” यह बात अच्छी लगती है, लेकिन उस उम्मीद के टूटने की स्थिति भी सोचनी चाहिए
व्यवहारिक रूप से यह कठिन होगा, लेकिन ऐसा निर्णय हुआ तो उसका सम्मान होगा