- व्यापक घरेलू निगरानी और पूरी तरह स्वायत्त हथियार इन दो क्षेत्रों को कॉन्ट्रैक्ट से बाहर रखा गया
- Anthropic, अमेरिका और लोकतांत्रिक देशों की रक्षा के लिए AI के उपयोग को अपना मुख्य मिशन मानता है, और इसी उद्देश्य से रक्षा विभाग तथा खुफिया एजेंसियों के साथ सहयोग कर रहा है
- Claude मॉडल classified networks, national laboratories, national security agencies आदि में intelligence analysis, operational planning, cyber operations जैसे मिशनों के लिए उपयोग किए जा रहे हैं
- कंपनी चीनी कम्युनिस्ट पार्टी से जुड़ी कंपनियों के साथ कारोबार बंद करने, AI के दुरुपयोग वाले cyber attacks को रोकने, semiconductor export controls को कड़ा करने के समर्थन जैसे कदमों से अमेरिका की AI बढ़त की रक्षा कर रही है
- हालांकि, व्यापक घरेलू निगरानी और पूरी तरह स्वायत्त हथियार इन दो क्षेत्रों को लोकतांत्रिक मूल्यों और तकनीकी विश्वसनीयता से जुड़ी चिंताओं के कारण उपयोग से स्पष्ट रूप से बाहर रखा गया है
- Anthropic ने रक्षा विभाग के दबाव के बावजूद इन दो सुरक्षा उपायों को बनाए रखने की अपनी स्थिति पर कायम रहते हुए सहयोग जारी रखने की इच्छा जताई है
Anthropic का रक्षा सहयोग और AI तैनाती
- Anthropic अमेरिकी सरकार के classified networks पर AI मॉडल तैनात करने वाली पहली अग्रणी कंपनियों में से है
- national laboratories और national security ग्राहकों के लिए custom models भी सबसे पहले उपलब्ध कराए
- Claude मॉडल रक्षा विभाग और कई सुरक्षा एजेंसियों में intelligence analysis, modeling and simulation, operational planning, cyber operations आदि के लिए इस्तेमाल हो रहे हैं
- कंपनी ने अमेरिका की AI तकनीकी बढ़त बनाए रखने के लिए अल्पकालिक लाभ छोड़ने के उदाहरण दिए
- चीनी कम्युनिस्ट पार्टी से जुड़ी कंपनियों के साथ कारोबार बंद कर सैकड़ों मिलियन डॉलर की बिक्री छोड़ी
- Claude का दुरुपयोग कर किए गए चीन-आधारित cyber attacks को रोका
- semiconductor export controls को कड़ा करने के समर्थन से लोकतांत्रिक देशों की तकनीकी बढ़त सुरक्षित करने की वकालत की
लोकतांत्रिक मूल्यों और तकनीकी विश्वसनीयता के आधार पर दो अपवाद
- Anthropic ने AI के ऐसे दो use cases को स्पष्ट रूप से बाहर रखा है जो लोकतांत्रिक मूल्यों को नुकसान पहुँचा सकते हैं
- व्यापक घरेलू निगरानी: वैध विदेशी intelligence गतिविधियों का समर्थन है, लेकिन देश के भीतर जन-निगरानी लोकतांत्रिक सिद्धांतों के विरुद्ध है
- AI-आधारित निगरानी किसी व्यक्ति की आवाजाही, web उपयोग और सामाजिक संबंधों के डेटा को अपने-आप जोड़कर बड़े पैमाने पर व्यक्तिगत profiling संभव बनाती है
- मौजूदा कानून तकनीकी प्रगति की रफ्तार के साथ नहीं चल पाए हैं, इसलिए कुछ निगरानी गतिविधियाँ अब भी कानूनी बनी हुई हैं
- पूरी तरह स्वायत्त हथियार: मानव हस्तक्षेप के बिना लक्ष्य पहचानने और हमला करने वाले हथियार मौजूदा तकनीक के अनुसार पर्याप्त रूप से विश्वसनीय नहीं हैं
- Anthropic ऐसे हथियारों के लिए कोई उत्पाद उपलब्ध नहीं कराता
- कंपनी ने रक्षा विभाग को विश्वसनीयता सुधारने के लिए शोध सहयोग का प्रस्ताव दिया था, लेकिन उसे स्वीकार नहीं किया गया
- उचित supervision और safeguards की कमी के कारण फिलहाल इन्हें तैनात नहीं किया जा सकता, यह स्पष्ट किया गया
रक्षा विभाग की मांगें और Anthropic की प्रतिक्रिया
- रक्षा विभाग ने AI कंपनियों से “सभी वैध उपयोगों के लिए सहमति” देने और ऊपर बताए गए दोनों सुरक्षा उपाय हटाने की मांग की
- इनकार करने पर Anthropic को supply chain risk घोषित करने या Defense Production Act लागू कर मजबूर करने की चेतावनी दी गई
- ये दोनों कदम स्वभाव में परस्पर विरोधी हैं; एक में कंपनी को सुरक्षा जोखिम माना जाता है, जबकि दूसरे में उसे राष्ट्रीय सुरक्षा के लिए आवश्यक तकनीक माना जाता है
- Anthropic ने इस दबाव के बावजूद स्पष्ट रूप से कहा कि वह अंत:करण के आधार पर इन मांगों को स्वीकार नहीं कर सकता
- कंपनी ने माना कि रक्षा विभाग को दूसरे कॉन्ट्रैक्टर चुनने का अधिकार है, लेकिन इन दोनों सुरक्षा उपायों को बनाए रखते हुए सहयोग जारी रखने की इच्छा जताई
- यदि कॉन्ट्रैक्ट समाप्त भी हो जाए, तब भी स्मूद ट्रांज़िशन सपोर्ट देने और सैन्य अभियानों या योजना पर असर न पड़े, इसके लिए सहयोग करने का वादा किया
आगे की स्थिति
- Anthropic ने अमेरिका की राष्ट्रीय सुरक्षा के समर्थन की अपनी प्रतिबद्धता दोहराई
- कंपनी रक्षा विभाग के साथ सहयोग जारी रखना चाहती है, लेकिन लोकतांत्रिक मूल्यों और तकनीकी सुरक्षा के सिद्धांतों पर समझौता नहीं करेगी
1 टिप्पणियां
Hacker News टिप्पणियाँ
लेख का सबसे मजबूत हिस्सा वह था जहाँ सरकार ने Anthropic की सुरक्षा व्यवस्थाएँ हटाने के लिए मजबूर करने की कोशिश की, और साथ ही उन्हें ‘supply chain risk’ घोषित करने की धमकी दी
एक तरफ उन्हें राष्ट्रीय सुरक्षा के लिए आवश्यक बताया जा रहा है, और दूसरी तरफ जोखिम तत्व कहा जा रहा है — यह विरोधाभासी रवैया है
Anthropic का यह कहना प्रभावशाली था कि “तो फिर सरकार को हमारी सेवाएँ इस्तेमाल करने की ज़रूरत नहीं है”
यह एक messaging strategy भी है, लेकिन इससे गेंद प्रशासन के पाले में चली गई
मैं पहले Anthropic में काम कर चुका हूँ, और इस RSP update पर मेरी लिखी टिप्पणी है
Anthropic के leaders को अपने मूल्यों की रक्षा के लिए पद या अवसर खोने तक को तैयार देखना प्रेरक है
Dario, Jared, Sam जैसे लोग अपने विश्वासों के खिलाफ कुछ होने पर नुकसान उठाने को भी तैयार दिखते हैं
बेशक यह परफेक्ट कंपनी नहीं है, लेकिन महत्वपूर्ण फैसले लेने वाले ज़्यादातर लोग सद्भावना और values-केंद्रित प्रेरणा से काम कर रहे हैं
लेख पढ़ते हुए मैं “मौजूदा AI पूरी तरह autonomous weapons चलाने लायक भरोसेमंद नहीं है” इस वाक्य पर अटक गया
यानी, अगर वह पर्याप्त भरोसेमंद हो जाए तो autonomous weapons संभव हैं, ऐसा रास्ता खुला छोड़ा गया लगता है
और सिर्फ ‘घरेलू बड़े पैमाने की निगरानी’ की आलोचना करना, जबकि ‘आंशिक autonomous surveillance’ या ‘विदेशी निगरानी’ को स्पष्ट रूप से खारिज न करना, निराशाजनक है
मैंने सोचा था कि ‘Anthropic’ नाम का मतलब पूरी मानवता के हित में होना है, लेकिन अंततः यह ‘हमारे लोग बनाम तुम्हारे लोग’ जैसा लगता है
जैसे OpenAI का ‘open’, या North Korea का ‘People’s Republic’ — नाम और वास्तविकता अलग हो सकते हैं
इसी संदर्भ में People’s Republic of Tyranny नाम का व्यंग्य पेज याद आता है
Anthropic अभी सिर्फ यह कह रहा है कि “अभी ऐसा नहीं हो सकता”
बाद में पाबंदियाँ ढीली पड़ने की संभावना काफी है
hardware या सामान्य software की भी reliability limits होती हैं, इसलिए यह अपने आप में अविवेकपूर्ण नहीं है
किसी संगठन का असली चरित्र तब सामने आता है जब values और लाभ टकराते हैं
Anthropic का अपने सिद्धांतों पर टिके रहने की कोशिश करना प्रेरक है. ज़्यादातर कंपनियाँ शायद ऐसा फैसला नहीं कर पातीं
नैतिक कारणों से बुरी प्रणालियों पर निर्भर रहना लंबे समय में असफल होना तय है
बुरे आचरण के खिलाफ मजबूत deterrence mechanism चाहिए, लेकिन लगता है कि अब बहुत देर हो चुकी है
यह पढ़कर मैं सचमुच उदास हो गया. समझ नहीं आता कि अमेरिका किस दिशा में जा रहा है
उम्मीद है अगला चुनाव तर्कसंगत नेतृत्व लेकर आएगा
मैं San Francisco में रहता हूँ; यहाँ शिक्षक GoFundMe से स्कूल की सामग्री खरीद रहे हैं, जबकि शहर RV हटाने पर 36 million dollar खर्च कर रहा है
इस लेख से पता चलता है कि वास्तविकता कितनी विकृत हो चुकी है
सारी समस्याओं की जड़ यह है कि Congress ने अपनी शक्तियाँ कार्यपालिका को सौंप दीं
सेना को कानून से नियंत्रित होना चाहिए, और इसे बदलने की ताकत सिर्फ नागरिक कार्रवाई में है
यह बेतुका है कि कंपनियाँ सेना के व्यवहार को तय करें. तकनीक कभी भी जब्त की जा सकती है, और कंपनियाँ इसे रोक नहीं सकतीं
CEOs का ऐसी बातों पर नायक की तरह महिमामंडित होना दिखाता है कि हमारी वास्तविकता-समझ कितनी विकृत हो चुकी है
जब मैंने पहली बार सुना कि Anthropic “AI for humanity” की बात करते हुए भी Pentagon को priority access बेच रहा है, तो निराशा हुई
लेकिन अगर किसी को military-industrial complex के साथ काम करना ही है, तो यह तर्क समझ में आता है कि सबसे ऊँचे नैतिक मानकों वाला पक्ष यह काम करे तो बेहतर है
अंततः कंपनियाँ मुनाफे के लिए ही मौजूद होती हैं
निवेशकों और shareholders की मौजूदगी में, नैतिकता से पहले अस्तित्व आ जाना लगभग तय है
वास्तविक स्वतंत्रता सिर्फ ऐसी संरचना में संभव है जो लाभ पर निर्भर न हो
मैं Claude Max subscriber हूँ, और इस मामले में Anthropic का सत्ता के आगे न झुकना मुझे गर्व देता है
उम्मीद है दूसरी कंपनियों को भी इससे हिम्मत मिलेगी
‘Department of War’ वाला शब्द जस का तस इस्तेमाल हुआ, यह सिर्फ इसलिए है क्योंकि Congress ने नाम नहीं बदला था. इसके अलावा अभिव्यक्ति ठीक है
हम हर चीज़ को बहुत नरम भाषा में कहने लगते हैं, इसलिए वास्तविकता को ठीक से देख नहीं पाते
Dario और Anthropic ने नैतिक रुख अपनाया, इसकी मैं सराहना करता हूँ. आजकल tech industry में यह दुर्लभ है
Dario का Sam Altman या Sundar Pichai की तरह व्यवहार न करना बड़ी बात है
वास्तव में Anthropic पहले से ही रक्षा और खुफिया एजेंसियों के लिए models deploy कर रहा है
आखिर अरबों डॉलर के सरकारी contracts के सामने कोई भी कंपनी पूरी तरह शुद्ध नहीं रह सकती, यही तर्क है