1 पॉइंट द्वारा GN⁺ 2026-03-01 | 1 टिप्पणियां | WhatsApp पर शेयर करें
  • अमेरिकी सरकार ने Anthropic की AI तकनीक का उपयोग पूरी तरह रोक दिया और रक्षा विभाग ने उसे राष्ट्रीय सुरक्षा जोखिम वाली कंपनी घोषित किया
  • घोषणा के तुरंत बाद OpenAI ने रक्षा विभाग के साथ classified networks के लिए AI आपूर्ति अनुबंध किया और वह वैकल्पिक आपूर्तिकर्ता के रूप में उभरा
  • Anthropic ने स्वायत्त हथियारों और घरेलू बड़े पैमाने की निगरानी पर उपयोग-सीमाएं बनाए रखीं, इसी वजह से उसने अनुबंध खोया, और कानूनी कार्रवाई की चेतावनी दी
  • ट्रंप प्रशासन ने सभी वैध उद्देश्यों के लिए AI तक पहुंच सुनिश्चित करने की बात कही, जबकि Anthropic ने तकनीक की सुरक्षा और मानवाधिकार उल्लंघन की चिंताओं पर जोर दिया
  • इस कदम को AI कंपनियों के सैन्य उपयोग पर सीमाएं तय करने के अधिकार को लेकर टकराव के खुलकर सामने आने का उदाहरण माना जा रहा है

ट्रंप प्रशासन द्वारा Anthropic पर प्रतिबंध

  • राष्ट्रपति ट्रंप ने सभी संघीय एजेंसियों को Anthropic तकनीक का उपयोग बंद करने का आदेश दिया, और रक्षा विभाग ने कंपनी को राष्ट्रीय सुरक्षा सप्लाई चेन जोखिम के रूप में नामित किया
    • राष्ट्रपति ने Truth Social पर लिखा, “Anthropic ने संविधान से ऊपर अपनी terms of service को रखा,” और “अमेरिकी सरकार अब इनके साथ कारोबार नहीं करेगी”
    • 6 महीने की चरणबद्ध वापसी अवधि तय की गई
  • रक्षा मंत्री Pete Hegseth ने Anthropic को अमेरिकी सेना और उसके ठेकेदारों के लिए प्रतिबंधित लेनदेन सूची में डालते हुए कहा कि “अब अधिक देशभक्तिपूर्ण सेवाओं की ओर रुख किया जाएगा”
    • रक्षा विभाग ने ‘Department of War’ के रूप में rebranding किए गए नाम का उपयोग किया

Anthropic का विरोध और कानूनी जवाबी कार्रवाई

  • Anthropic ने कहा कि सप्लाई चेन जोखिम के रूप में नामित करने का कानूनी आधार कमजोर है, और उसने अदालत में चुनौती देने की योजना बताई
    • कंपनी का कहना है कि यह नामांकन केवल Claude मॉडल के सैन्य अनुबंध उपयोग पर लागू होता है और अन्य ग्राहकों के साथ उसके कारोबार पर असर नहीं डालता
  • Anthropic ने घरेलू निगरानी और पूरी तरह स्वायत्त हथियारों के उपयोग के विरोध की अपनी स्थिति दोहराई
    • उसने स्पष्ट कहा, “मौजूदा AI मॉडल पूरी तरह स्वायत्त हथियारों में उपयोग के लिए पर्याप्त विश्वसनीय नहीं हैं, और बड़े पैमाने की निगरानी बुनियादी अधिकारों का उल्लंघन है”
    • कंपनी ने बताया कि उसने कई महीनों तक रक्षा विभाग से बातचीत की, लेकिन इन दो अपवादों को बनाए रखा

OpenAI का रक्षा विभाग के साथ अनुबंध

  • ट्रंप की घोषणा के तुरंत बाद OpenAI ने रक्षा विभाग के साथ classified networks के लिए AI अनुबंध किया
    • CEO Sam Altman ने कहा कि अनुबंध में “घरेलू निगरानी पर रोक और बल प्रयोग की मानवीय जवाबदेही” के सिद्धांत शामिल किए गए हैं
    • यह Anthropic द्वारा मांगी गई सुरक्षा प्रावधानों वाली शर्तों को दर्शाने वाला रूप है
  • OpenAI, Google, xAI आदि भी रक्षा विभाग के साथ अनुबंध में हैं, और उन्होंने ‘सभी वैध उद्देश्यों’ के लिए उपयोग की अनुमति वाली शर्त स्वीकार की है

Anthropic की IPO योजना और बाज़ार पर असर

  • Anthropic 380 अरब डॉलर के valuation पर इस वर्ष IPO की तैयारी कर रहा है
    • रक्षा विभाग का यह अनुबंध अधिकतम 20 करोड़ डॉलर का है, जो उसकी कुल आय (14 अरब डॉलर) की तुलना में छोटा है, लेकिन नीतिगत टकराव का निवेशक भरोसे पर क्या असर होगा, यह स्पष्ट नहीं है
  • CEO Dario Amodei ने कहा कि “युद्धक्षेत्र में AI के उपयोग पर अपनी स्थिति बनाए रखने के बाद भी कंपनी का मूल्यांकन और राजस्व बढ़ा है”

AI के सैन्य उपयोग की सीमाओं पर बहस

  • रक्षा विभाग ने Anthropic को मॉडल-सीमाएं हटाने की समयसीमा (शुक्रवार शाम 5:01 बजे ET) दी थी, और पालन न करने पर अनुबंध समाप्त करने की चेतावनी दी
    • रक्षा विभाग ने कोरियाई युद्ध काल में बनाए गए Defense Production Act को लागू करने की संभावना का भी उल्लेख किया
  • मंत्री Hegseth ने Anthropic की आलोचना करते हुए कहा कि वह “अमेरिकी सेना के operational decisions को नियंत्रित करना चाहती थी,” और “अमेरिकी सेना Big Tech के वैचारिक उतार-चढ़ाव से नहीं चलेगी”
  • रक्षा विभाग के अनुसंधान एवं इंजीनियरिंग के अवर सचिव Emil Michael ने जोर देकर कहा कि “संघीय कानून और नीति के तहत घरेलू निगरानी और स्वायत्त हथियारों का उपयोग पहले से ही प्रतिबंधित है”
  • स्वतंत्र विशेषज्ञों ने इस मामले को Pentagon अनुबंध इतिहास में एक असामान्य सार्वजनिक टकराव बताया
    • उनके अनुसार, “AI अभी भी एक अप्रमाणित तकनीक है, और यह घटना उसी प्रकृति को दिखाती है”

1 टिप्पणियां

 
GN⁺ 2026-03-01
Hacker News की राय
  • इस मामले के बाद Anthropic उन लोगों के बीच लोकप्रिय हो सकता है जो मौजूदा अमेरिकी प्रशासन का समर्थन नहीं करते

    • पिछले कुछ महीनों में अमेरिकी मॉडल ऊपर रहे हैं, लेकिन मुझे लगता है कि यह अंतर धीरे-धीरे कम होगा
      अभी जटिल queries के लिए अमेरिकी मॉडल इस्तेमाल करने पड़ते हैं, लेकिन उनमें भी ऐसी कंपनी का होना अच्छा है जिसका समर्थन नैतिक रूप से किया जा सके
      मैं ऐसी कंपनियों का समर्थन करना चाहता हूँ जिनका इस्तेमाल युद्धक drones या बड़े पैमाने की surveillance में न हो
      इसलिए मैं कंपनी का इंफ्रास्ट्रक्चर MS 365 से Hetzner पर Nextcloud में शिफ्ट कर रहा हूँ
    • दूसरी AI कंपनियों को भी ऐसी स्पष्ट ethical line से सीख लेनी चाहिए
      बड़े पैमाने की surveillance या killing automation की अनुमति न देना एक बुनियादी मानक है
    • यह पहली बार सुनते ही मुझे लगा कि जब यूरोप AI infrastructure पर चर्चा करेगा, तो Anthropic सबसे पहले याद आएगा
      सोच रहा हूँ कि क्या किसी अमेरिकी कंपनी ने इस तरह पूरी तरह “migration” किया है
    • अभी Claude Code programming के मामले में top tier पर है
      अगर Anthropic यह बढ़त बनाए रखता है, तो enterprise customers लगातार बढ़ते रहेंगे
    • यह फैसला एक तरफ के market में reputation बढ़ा सकता है, लेकिन दूसरी तरफ इसकी appeal कम भी कर सकता है
  • मेरी समझ के अनुसार यह मामला इस बात से जुड़ा है कि Anthropic ने autonomous weapons और domestic surveillance में उपयोग पर रोक लगाई
    वास्तविक रूप से मुझे नहीं लगता कि nation-scale fully controlled AI system की संभावना बहुत अधिक है

    • असल में बताया गया है कि Anthropic ने ये पाबंदियाँ लगाईं, तो Defense Department ने defense-related सभी उपयोग पर रोक लगा दी
      (बाद में संपादन: car wash तक पैदल जाऊँ या कार से, इस पर मज़ाक जोड़ा गया)
    • बहस का मुख्य बिंदु यह है कि Anthropic domestic surveillance और fully autonomous weapons को प्रतिबंधित करना चाहता था, जबकि Defense Department चाहता था कि “कानूनी उपयोग” होने पर उन्हें अनुमति दी जाए
  • बातचीत टूटने के बाद सरकार का निजी कंपनियों को सार्वजनिक रूप से धमकाना अजीब लगता है
    समझ नहीं आता कि freedom of speech जैसी बातें कहाँ गईं

    • “क्या यह freedom of speech नहीं था?” पर किसी ने तंज करते हुए जवाब दिया, “वह तो बस advertising थी”
  • इस विषय पर White House के आधिकारिक Twitter पोस्ट का लिंक
    WhiteHouse मूल ट्वीट
    वैकल्पिक लिंक

  • यह घटना पूरे industry को नकारात्मक signal दे सकती है
    अगर यह धारणा फैलती है कि स्पष्ट ethical line रखने पर government contracts से बाहर कर दिया जाता है, तो कंपनियों के पास safety standards को जानबूझकर अस्पष्ट रखने की incentive बनेगी

  • Department of War कहे जाने वाले संस्थान का तकनीकी क्षमता पर निर्भर होना विडंबनापूर्ण है
    जिन लोगों में खुद technology बनाने की क्षमता नहीं है, वही Big Tech की आलोचना करते हुए उसकी पहुँच की भीख माँगते दिखते हैं, यह हास्यास्पद है
    Anthropic का झुके बिना अपने सिद्धांतों पर टिके रहना सम्मानजनक है
    उम्मीद है OpenAI भी किसी और तरीके से भीतर से बदलाव ला सके

  • अंत में Anthropic ही शायद एकमात्र ऐसी बड़ी tech company रह जाए जिसने अपनी आत्मा नहीं बेची

    • लेकिन government या बड़े corporate funding लेने वाली किसी AI lab के लिए यह कहना मुश्किल है कि उसने “अपनी आत्मा नहीं बेची”
    • यह आशावादी सोच है, लेकिन शायद अंत में इसका मतलब सिर्फ इतना हो कि वे और ऊँची कीमत माँगेंगे
  • ट्रंप के बयानों को लेकर दिलचस्प हलचल दिख रही है
    White House के भीतर कुछ aides उसके बयानों को नज़रअंदाज़ कर economic policy पर focus करने के निर्देश दे रहे हैं
    political strategist James Blair इस प्रवाह को आगे बढ़ा रहे हैं, और वही ट्रंप campaign की सफलता के प्रमुख लोगों में थे
    पहले भी ऐसे उदाहरण रहे हैं जब राष्ट्रपति को staff द्वारा आंशिक रूप से नियंत्रित किया गया
    देखना होगा कि कौन-सी धमकियाँ वास्तव में कार्रवाई में बदलती हैं
    संबंधित लेख: The Atlantic लेख / James Blair विकि

    • इस पर मज़ाक भी आया: “तो अब auto-pen से executive orders पर मुहर लगा दो?”
  • यह मामला Anthropic के लिए सबसे बेहतरीन recommendation letter जैसा लगता है

  • कुछ टिप्पणियों में यह भी पूछा गया कि जैसे “ग्रीनलैंड की ओर जा रहा AI-generated medical ship” जैसी fake news घूम रही थी, क्या यह मामला भी वैसा ही कुछ तो नहीं