- अमेरिकी सरकार ने Anthropic की AI तकनीक का उपयोग पूरी तरह रोक दिया और रक्षा विभाग ने उसे राष्ट्रीय सुरक्षा जोखिम वाली कंपनी घोषित किया
- घोषणा के तुरंत बाद OpenAI ने रक्षा विभाग के साथ classified networks के लिए AI आपूर्ति अनुबंध किया और वह वैकल्पिक आपूर्तिकर्ता के रूप में उभरा
- Anthropic ने स्वायत्त हथियारों और घरेलू बड़े पैमाने की निगरानी पर उपयोग-सीमाएं बनाए रखीं, इसी वजह से उसने अनुबंध खोया, और कानूनी कार्रवाई की चेतावनी दी
- ट्रंप प्रशासन ने सभी वैध उद्देश्यों के लिए AI तक पहुंच सुनिश्चित करने की बात कही, जबकि Anthropic ने तकनीक की सुरक्षा और मानवाधिकार उल्लंघन की चिंताओं पर जोर दिया
- इस कदम को AI कंपनियों के सैन्य उपयोग पर सीमाएं तय करने के अधिकार को लेकर टकराव के खुलकर सामने आने का उदाहरण माना जा रहा है
ट्रंप प्रशासन द्वारा Anthropic पर प्रतिबंध
- राष्ट्रपति ट्रंप ने सभी संघीय एजेंसियों को Anthropic तकनीक का उपयोग बंद करने का आदेश दिया, और रक्षा विभाग ने कंपनी को राष्ट्रीय सुरक्षा सप्लाई चेन जोखिम के रूप में नामित किया
- राष्ट्रपति ने Truth Social पर लिखा, “Anthropic ने संविधान से ऊपर अपनी terms of service को रखा,” और “अमेरिकी सरकार अब इनके साथ कारोबार नहीं करेगी”
- 6 महीने की चरणबद्ध वापसी अवधि तय की गई
- रक्षा मंत्री Pete Hegseth ने Anthropic को अमेरिकी सेना और उसके ठेकेदारों के लिए प्रतिबंधित लेनदेन सूची में डालते हुए कहा कि “अब अधिक देशभक्तिपूर्ण सेवाओं की ओर रुख किया जाएगा”
- रक्षा विभाग ने ‘Department of War’ के रूप में rebranding किए गए नाम का उपयोग किया
Anthropic का विरोध और कानूनी जवाबी कार्रवाई
- Anthropic ने कहा कि सप्लाई चेन जोखिम के रूप में नामित करने का कानूनी आधार कमजोर है, और उसने अदालत में चुनौती देने की योजना बताई
- कंपनी का कहना है कि यह नामांकन केवल Claude मॉडल के सैन्य अनुबंध उपयोग पर लागू होता है और अन्य ग्राहकों के साथ उसके कारोबार पर असर नहीं डालता
- Anthropic ने घरेलू निगरानी और पूरी तरह स्वायत्त हथियारों के उपयोग के विरोध की अपनी स्थिति दोहराई
- उसने स्पष्ट कहा, “मौजूदा AI मॉडल पूरी तरह स्वायत्त हथियारों में उपयोग के लिए पर्याप्त विश्वसनीय नहीं हैं, और बड़े पैमाने की निगरानी बुनियादी अधिकारों का उल्लंघन है”
- कंपनी ने बताया कि उसने कई महीनों तक रक्षा विभाग से बातचीत की, लेकिन इन दो अपवादों को बनाए रखा
OpenAI का रक्षा विभाग के साथ अनुबंध
- ट्रंप की घोषणा के तुरंत बाद OpenAI ने रक्षा विभाग के साथ classified networks के लिए AI अनुबंध किया
- CEO Sam Altman ने कहा कि अनुबंध में “घरेलू निगरानी पर रोक और बल प्रयोग की मानवीय जवाबदेही” के सिद्धांत शामिल किए गए हैं
- यह Anthropic द्वारा मांगी गई सुरक्षा प्रावधानों वाली शर्तों को दर्शाने वाला रूप है
- OpenAI, Google, xAI आदि भी रक्षा विभाग के साथ अनुबंध में हैं, और उन्होंने ‘सभी वैध उद्देश्यों’ के लिए उपयोग की अनुमति वाली शर्त स्वीकार की है
Anthropic की IPO योजना और बाज़ार पर असर
- Anthropic 380 अरब डॉलर के valuation पर इस वर्ष IPO की तैयारी कर रहा है
- रक्षा विभाग का यह अनुबंध अधिकतम 20 करोड़ डॉलर का है, जो उसकी कुल आय (14 अरब डॉलर) की तुलना में छोटा है, लेकिन नीतिगत टकराव का निवेशक भरोसे पर क्या असर होगा, यह स्पष्ट नहीं है
- CEO Dario Amodei ने कहा कि “युद्धक्षेत्र में AI के उपयोग पर अपनी स्थिति बनाए रखने के बाद भी कंपनी का मूल्यांकन और राजस्व बढ़ा है”
AI के सैन्य उपयोग की सीमाओं पर बहस
- रक्षा विभाग ने Anthropic को मॉडल-सीमाएं हटाने की समयसीमा (शुक्रवार शाम 5:01 बजे ET) दी थी, और पालन न करने पर अनुबंध समाप्त करने की चेतावनी दी
- रक्षा विभाग ने कोरियाई युद्ध काल में बनाए गए Defense Production Act को लागू करने की संभावना का भी उल्लेख किया
- मंत्री Hegseth ने Anthropic की आलोचना करते हुए कहा कि वह “अमेरिकी सेना के operational decisions को नियंत्रित करना चाहती थी,” और “अमेरिकी सेना Big Tech के वैचारिक उतार-चढ़ाव से नहीं चलेगी”
- रक्षा विभाग के अनुसंधान एवं इंजीनियरिंग के अवर सचिव Emil Michael ने जोर देकर कहा कि “संघीय कानून और नीति के तहत घरेलू निगरानी और स्वायत्त हथियारों का उपयोग पहले से ही प्रतिबंधित है”
- स्वतंत्र विशेषज्ञों ने इस मामले को Pentagon अनुबंध इतिहास में एक असामान्य सार्वजनिक टकराव बताया
- उनके अनुसार, “AI अभी भी एक अप्रमाणित तकनीक है, और यह घटना उसी प्रकृति को दिखाती है”
1 टिप्पणियां
Hacker News की राय
इस मामले के बाद Anthropic उन लोगों के बीच लोकप्रिय हो सकता है जो मौजूदा अमेरिकी प्रशासन का समर्थन नहीं करते
अभी जटिल queries के लिए अमेरिकी मॉडल इस्तेमाल करने पड़ते हैं, लेकिन उनमें भी ऐसी कंपनी का होना अच्छा है जिसका समर्थन नैतिक रूप से किया जा सके
मैं ऐसी कंपनियों का समर्थन करना चाहता हूँ जिनका इस्तेमाल युद्धक drones या बड़े पैमाने की surveillance में न हो
इसलिए मैं कंपनी का इंफ्रास्ट्रक्चर MS 365 से Hetzner पर Nextcloud में शिफ्ट कर रहा हूँ
बड़े पैमाने की surveillance या killing automation की अनुमति न देना एक बुनियादी मानक है
सोच रहा हूँ कि क्या किसी अमेरिकी कंपनी ने इस तरह पूरी तरह “migration” किया है
अगर Anthropic यह बढ़त बनाए रखता है, तो enterprise customers लगातार बढ़ते रहेंगे
मेरी समझ के अनुसार यह मामला इस बात से जुड़ा है कि Anthropic ने autonomous weapons और domestic surveillance में उपयोग पर रोक लगाई
वास्तविक रूप से मुझे नहीं लगता कि nation-scale fully controlled AI system की संभावना बहुत अधिक है
(बाद में संपादन: car wash तक पैदल जाऊँ या कार से, इस पर मज़ाक जोड़ा गया)
बातचीत टूटने के बाद सरकार का निजी कंपनियों को सार्वजनिक रूप से धमकाना अजीब लगता है
समझ नहीं आता कि freedom of speech जैसी बातें कहाँ गईं
इस विषय पर White House के आधिकारिक Twitter पोस्ट का लिंक
WhiteHouse मूल ट्वीट
वैकल्पिक लिंक
यह घटना पूरे industry को नकारात्मक signal दे सकती है
अगर यह धारणा फैलती है कि स्पष्ट ethical line रखने पर government contracts से बाहर कर दिया जाता है, तो कंपनियों के पास safety standards को जानबूझकर अस्पष्ट रखने की incentive बनेगी
Department of War कहे जाने वाले संस्थान का तकनीकी क्षमता पर निर्भर होना विडंबनापूर्ण है
जिन लोगों में खुद technology बनाने की क्षमता नहीं है, वही Big Tech की आलोचना करते हुए उसकी पहुँच की भीख माँगते दिखते हैं, यह हास्यास्पद है
Anthropic का झुके बिना अपने सिद्धांतों पर टिके रहना सम्मानजनक है
उम्मीद है OpenAI भी किसी और तरीके से भीतर से बदलाव ला सके
अंत में Anthropic ही शायद एकमात्र ऐसी बड़ी tech company रह जाए जिसने अपनी आत्मा नहीं बेची
ट्रंप के बयानों को लेकर दिलचस्प हलचल दिख रही है
White House के भीतर कुछ aides उसके बयानों को नज़रअंदाज़ कर economic policy पर focus करने के निर्देश दे रहे हैं
political strategist James Blair इस प्रवाह को आगे बढ़ा रहे हैं, और वही ट्रंप campaign की सफलता के प्रमुख लोगों में थे
पहले भी ऐसे उदाहरण रहे हैं जब राष्ट्रपति को staff द्वारा आंशिक रूप से नियंत्रित किया गया
देखना होगा कि कौन-सी धमकियाँ वास्तव में कार्रवाई में बदलती हैं
संबंधित लेख: The Atlantic लेख / James Blair विकि
यह मामला Anthropic के लिए सबसे बेहतरीन recommendation letter जैसा लगता है
कुछ टिप्पणियों में यह भी पूछा गया कि जैसे “ग्रीनलैंड की ओर जा रहा AI-generated medical ship” जैसी fake news घूम रही थी, क्या यह मामला भी वैसा ही कुछ तो नहीं