5 पॉइंट द्वारा GN⁺ 2026-03-07 | 1 टिप्पणियां | WhatsApp पर शेयर करें
  • अमेरिकी War Department ने Anthropic को राष्ट्रीय सुरक्षा के लिए supply chain risk factor के रूप में नामित किया है, और कंपनी का मानना है कि यह कदम कानूनी रूप से उचित नहीं है, इसलिए वह कानूनी कार्रवाई की तैयारी कर रही है
  • War Department के पत्र के अनुसार Claude मॉडल के उपयोग पर लगी सीमा बहुत संकीर्ण है, और यह केवल उन ग्राहकों के उपयोग पर लागू होती है जो सीधे War Department contract से जुड़े हैं
  • संबंधित कानून (10 USC 3252) सरकार की सुरक्षा के उद्देश्य से मौजूद है, और War Department के Secretary को सबसे कम प्रतिबंधात्मक उपाय ही इस्तेमाल करने चाहिए
  • Anthropic War Department के साथ सहयोग जारी रखने और सुचारु transition के उपायों पर चर्चा कर रहा है, और स्वायत्त हथियारों तथा बड़े पैमाने की घरेलू निगरानी पर अपने अपवाद सिद्धांत बरकरार रखे हुए है
  • कंपनी ने कहा कि वह युद्ध में लगे अमेरिकी सैनिकों और सुरक्षा विशेषज्ञों को आवश्यक tools से वंचित न होने देने के लिए समर्थन जारी रखेगी, और राष्ट्रीय सुरक्षा में AI के उपयोग को लेकर साझा लक्ष्य पर जोर दिया

War Department द्वारा supply chain risk designation

  • War Department ने सूचित किया कि उसने Anthropic को अमेरिकी राष्ट्रीय सुरक्षा के लिए supply chain risk के रूप में वर्गीकृत किया है
    • Anthropic का मानना है कि यह कदम कानूनी रूप से वैध नहीं है, और वह अदालत में इसे चुनौती देने की योजना बना रहा है
  • War Department के पत्र की भाषा के अनुसार, यह designation केवल उन ग्राहकों पर लागू होती है जो Claude मॉडल को War Department contract के सीधे हिस्से के रूप में इस्तेमाल करते हैं
    • War Department के साथ contract होने पर भी, उस contract से असंबंधित Claude उपयोग या Anthropic के साथ लेनदेन पर कोई प्रतिबंध नहीं है

कानूनी आधार और लागू होने का दायरा

  • War Department की यह कार्रवाई 10 USC 3252 प्रावधान पर आधारित है, और यह कानून supply chain की सुरक्षा के लिए न्यूनतम प्रतिबंधात्मक उपायों के उपयोग की मांग करता है
    • इस कानून का उद्देश्य supplier को दंडित करना नहीं बल्कि सरकार की सुरक्षा करना है
  • इसलिए इस designation का दायरा बहुत सीमित है, और War Department contractors के बाहर के ग्राहकों पर इसका कोई प्रभाव नहीं है

War Department के साथ सहयोग और अपवाद सिद्धांत

  • Anthropic ने पिछले कुछ दिनों में War Department के साथ सहयोग जारी रखने के तरीकों और transition प्रक्रिया पर चर्चा की है
    • कंपनी intelligence analysis, modeling और simulation, operations planning, cyber operations जैसे कई क्षेत्रों में War Department का समर्थन करती रही है
  • Anthropic स्वायत्त हथियारों और बड़े पैमाने की घरेलू निगरानी पर दो अपवाद सिद्धांत बनाए रखता है
    • कंपनी ने स्पष्ट किया कि सैन्य अभियानों के निर्णयों में निजी कंपनियों की भागीदारी नहीं होनी चाहिए

आंतरिक पोस्ट लीक होने की घटना

  • कंपनी ने पिछले दिन मीडिया में लीक हुई आंतरिक पोस्ट के लिए माफी मांगी
    • यह पोस्ट राष्ट्रपति की Truth Social post, War Department Secretary की X post, और OpenAI तथा Department of Defense के contract announcement के तुरंत बाद लिखी गई थी
    • Anthropic ने कहा कि उसने यह post लीक नहीं की, और स्थिति को और बिगाड़ने का उसका कोई इरादा नहीं था
    • यह post 6 दिन पहले लिखी गई थी, इसलिए यह मौजूदा स्थिति को नहीं दर्शाने वाला पुराना आकलन है

आगे का समर्थन और साझा लक्ष्य

  • Anthropic की योजना है कि वह युद्ध में लगे अमेरिकी सैनिकों और राष्ट्रीय सुरक्षा विशेषज्ञों को आवश्यक tools का उपयोग जारी रखने में समर्थन दे
    • वह War Department और सुरक्षा एजेंसियों को नाममात्र लागत पर मॉडल और तकनीकी सहायता देता रहेगा
  • कंपनी ने कहा कि War Department के साथ उसका साझा लक्ष्य अमेरिकी सुरक्षा को मजबूत करना और सरकार में AI के उपयोग का विस्तार करना है
    • आगे के सभी निर्णय इसी साझा आधार पर लिए जाएंगे

1 टिप्पणियां

 
GN⁺ 2026-03-07
Hacker News की राय
  • यह देखकर हैरानी होती है कि इस मामले में Overton window कितनी दूर खिसक चुकी है
    जब मैं 2007 में ग्रेजुएट हुआ था, तब टेक कंपनियों का अपने सिस्टम के युद्ध में इस्तेमाल होने से इनकार करना आम था, और ऐसी कंपनियों में नौकरी न करने वाले लोग भी नैतिक कारणों से बहुत थे
    लेकिन अब Anthropic नैतिक नहीं बल्कि व्यावहारिक कारणों से सिर्फ दो अपवाद रखना चाहता है। वह भी ऐसी भाषा में पेश किया जा रहा है मानो वे युद्ध का समर्थन करना चाहते हों, पर मजबूर हों। दुनिया सचमुच बहुत बदल गई है

    • इससे 1969 की जर्मन लघु फ़िल्म Nicht löschbares Feuer (Inextinguishable Fire) याद आती है
      यह napalm-विरोधी फ़िल्म है, जो इस स्थिति का व्यंग्य करती है कि मज़दूरों को पता ही नहीं होता कि वे जो बना रहे हैं वह असल में हथियार है
      इसका आख़िरी संवाद — “हम क्या उत्पादन करते हैं, यह मज़दूरों, छात्रों और इंजीनियरों पर निर्भर करता है” — आज भी उतना ही प्रासंगिक है
    • फ़िल्म Real Genius में भी ऐसा सेटअप था, जहाँ छात्र अनजाने में हथियार बना रहे होते हैं
      पहले ऐसी कहानियाँ ethical education का हिस्सा हुआ करती थीं, लेकिन अब लगता है कि ऐसी कक्षाएँ भी गायब हो गई हैं
    • Anthropic के दो अपवादों में से सिर्फ एक ही नैतिक कारण से जुड़ा है
      वे autonomous lethal weapons technology को सिर्फ इसलिए ठुकरा रहे हैं क्योंकि वह अभी पर्याप्त विकसित नहीं है; यानी इसमें भी ‘अभी’ जैसी शर्त लगी हुई है
      OpenAI से बेहतर सही, लेकिन अंत में यह बस ‘कम बुरा विकल्प’ ही है
    • MH17 घटना के बाद हाई स्कूल के छात्रों का दुःख देखने के बाद, युद्ध-संबंधी R&D को लेकर मेरी सोच जटिल हो गई
      रक्षा अनुसंधान की ज़रूरत जैसी वास्तविकताएँ हैं, लेकिन अगर automated decision-making systems मानव नियंत्रण से बाहर चले जाएँ तो यह ख़तरनाक है
      मेरा मानना है कि क़ानूनन ‘human-in-the-loop’ को अनिवार्य किया जाना चाहिए
    • युद्ध के प्रति रवैया समय के संदर्भ के साथ बदलता है
      2007 का ‘युद्ध’ इराक था, और आज का ‘युद्ध’ Gaza, Iran, Venezuela, और साथ ही Ukraine या Taiwan पर संभावित आक्रमण तक फैला हुआ है
      मुझे लगता है कि Anthropic के भीतर भी इस संदर्भ को ध्यान में रखा जा रहा होगा
  • कॉलेज के दिनों में मेरा एक दोस्त DARPA में काम करना चाहता था, और जब मैंने उससे इसका नैतिक पक्ष पूछा तो उसने कहा, “वह मेरी समस्या नहीं है”
    अमेरिका में पढ़ते हुए मुझे यह महसूस हुआ कि industry management हो या universities, किसी की भी critical thinking और ethics education में खास दिलचस्पी नहीं है; ध्यान बस लोगों को साधारण तकनीकी औज़ार में बदलने पर है
    Harvard की VR innovation week में भी ‘ethics and law’ session में founders या developers लगभग थे ही नहीं। सामाजिक प्रभाव पर चर्चा को पूरी तरह बाहर रखा गया था
    अंततः ऐसा लगा कि पैसे के लिए पागलपन ने समाज की सोचने की क्षमता को ही तोड़ दिया है

    • AdTech उद्योग में काम करते हुए मुझे लगा कि मेरे लिखे ad code का इस्तेमाल election manipulation, anti-vaccine, scam ads जैसी चीज़ों में हो सकता है
      अगर उसके नतीजे में किसी की मौत होती है, तो मुझे लगता है कि मेरी भी ज़िम्मेदारी है
      लेकिन असली समस्या यह है कि रोज़ी-रोटी के लिए नैतिक सीमा पर टिके रहना मुश्किल होता है। आख़िर में हम सब एक ही नाव में हैं
    • मुझे लगता है कि यह नैतिक सुन्नता humanities के पतन से जुड़ी है
      George Orwell की रचना (लिंक) में भी कहा गया था कि सिर्फ विज्ञान की शिक्षा से मानवीय दृष्टि की गारंटी नहीं मिलती
    • यह कहना कि “founders या CEO ethics discussion में भाग लेने के योग्य नहीं हैं” मुझे meritocratic arrogance जैसा लगता है
    • इससे von Braun की वह बात याद आती है: “रॉकेट जहाँ भी गिरे, वह मेरे विभाग का मामला नहीं है”
    • पिछले कुछ वर्षों की AI सनक ने इंसानियत पर मेरे भरोसे को पूरी तरह तोड़ दिया है। लालच हवा की तरह फैल गया है
  • “Anthropic की रक्षा विभाग से समानताएँ, उससे फ़र्क़ से ज़्यादा हैं” यह वाक्य पढ़कर मैं चौंक गया

    • परमाणु बम के बाद ‘War Department’ का नाम बदलकर ‘Defense Department’ इसलिए किया गया था क्योंकि मानवता ने अपनी ही रचना का बोझ समझा था
      लेकिन अब AI alignment को ‘war department के साथ alignment’ जैसी पंक्ति में रखना बौद्धिक रूप से अनुचित है
      इस साल जिन देशों पर हमला हुआ, उनमें कोई भी मानवता के लिए अस्तित्वगत ख़तरा नहीं था। उल्टा, ऐसे युद्ध ही core risks को बढ़ाते हैं
      समझ नहीं आता कि शोधकर्ताओं में विरोध की आवाज़ें और ज़्यादा क्यों नहीं हैं
    • अगर इसे “हमें आज्ञाकारी जनता चाहिए” की तरह पढ़ें, तो यह वाक्य और साफ़ हो जाता है
    • पूरा लेख पढ़कर भौहें उड़ जाने जितना झटका लगा
    • अमेरिका के बाहर से देखें तो यह पूरी प्रक्रिया डरावनी लगती है
      AI का सैन्य उद्देश्यों के लिए राष्ट्रीयकरण होना बहुत संभव लगता है, और Anthropic का अपनी तकनीक को परमाणु बम से ज़्यादा ख़तरनाक बताना, फिर भी Palantir के साथ सैन्य सहयोग करना, विरोधाभासी है
    • Venezuela और Iran में गतिविधियों को देखें, तो ‘Defense’ शब्द शायद सबसे कम Orwellian अभिव्यक्ति हो सकता है
  • Anthropic के “jeontuyowon (warfighter)” वाले बयान को देखकर सवाल उठता है
    क्या सचमुच सिर्फ ये दो अपवाद ही नैतिक सीमा बनाए रखने के लिए काफ़ी हैं?

    • ‘Warfighter’ शब्द ही अजीब लगता है। पहले ‘servicemen’ कहा जाता था, लेकिन अब मानो आक्रामक छवि पर ज़ोर दिया जा रहा है
    • भले यह पूर्ण न हो, फिर भी थोड़ा अधिक नैतिक विकल्प की ओर पैसा ले जाना सार्थक हो सकता है
    • सच तो यह है कि इस कहानी में कोई ‘अच्छा पक्ष’ है ही नहीं। दोनों कंपनियों का लक्ष्य मुनाफ़ा कमाना है, और PR से छवि सजाई जा रही है
      Anthropic इस घटना में ‘अच्छी तरफ़’ जैसा दिख रहा है, जबकि वह भी युद्ध उद्योग से पैसा कमा रहा है
    • आख़िरकार यह बस marketing strategy है, और मेरे हिसाब से यह कारगर रही
    • यह अच्छा PR play था
  • Orwellian America 2026 की हक़ीक़त को ‘Warfighter’ शब्द जितना कुछ नहीं दिखाता

    • यह शब्द 20 साल से भी ज़्यादा समय से इस्तेमाल हो रहा है। बल्कि ‘Department of Defense (DoD)’ जैसा Newspeak-शैली का नाम ज़्यादा Orwellian है
    • इससे Tao Te Ching अध्याय 46 की यह पंक्ति याद आती है: “जब मार्ग का पालन होता है, तो युद्ध के घोड़े खेत जोतते हैं; जब मार्ग का पालन नहीं होता, तो युद्ध के घोड़े सीमा पर पाले जाते हैं”
    • “हम Iran के साथ युद्ध में नहीं हैं” जैसी राजनेताओं की बात खोखली लगती है
    • Trump द्वारा नई नियुक्ति को ‘MAGA warrior’ कहना भी इसी संदर्भ में आता है
  • Mike Masnick की Techdirt पोस्ट का हवाला दिया गया
    पहले की सरकारों में “हम चाहते हैं कि AI बिना मानव हस्तक्षेप के हत्या के फ़ैसले न ले” जैसी बात सामान्य बातचीत की शर्त होती
    लेकिन अब हालात यह हैं कि रक्षा मंत्री खुलेआम कंपनी को ‘गद्दार’ कहकर निंदा करता है, राष्ट्रपति सभी सरकारी एजेंसियों को उसका उपयोग बंद करने का आदेश देता है, और CEO को ‘बंधक-पत्र’ जैसी माफ़ीनामा लिखनी पड़ती है

  • अगर सरकार की सत्ता और भ्रष्टाचार पर नियंत्रण न हो, तो कंपनियाँ आख़िरकार ऐसे सौदे करने लगती हैं
    शुरुआत में यह पैसे और देशभक्ति से शुरू होता है, लेकिन धीरे-धीरे वे अपरिवर्तनीय कामों में फँस जाती हैं, और बाहर निकलना मुश्किल हो जाता है
    फिर नया CEO आता है और कहता है, “पुराना व्यक्ति कमज़ोर था, मैं अलग हूँ,” और वही दुष्चक्र दोहराया जाता है

  • युद्ध उद्योग को तकनीक देने की सोच रखने वालों से मैं यह कहना चाहता हूँ
    “सब कुछ छीन लिया जा सकता है, लेकिन विवेक तब तक नहीं खोता जब तक इंसान उसे ख़ुद न छोड़ दे”

    • defense industry आम टेक उद्योग की तुलना में ज़्यादा वेतन नहीं देती
      बहुत से लोग वहाँ सिर्फ सरकार की मदद करने के विश्वास से काम करते हैं
  • यह देखना बहुत दिलचस्प होगा कि यह मामला अदालत और जनमत की अदालत में कैसे ख़त्म होता है
    मुझे यह एक महत्वपूर्ण मामला लगता है, और उम्मीद है कि सही नतीजा निकलेगा

  • War Department के उपमंत्री Emil Michael ने आधिकारिक घोषणा में कहा कि “Anthropic के साथ कोई बातचीत नहीं होगी”

    • हाल में उन्होंने जो रुख़ रखा है, वह भी पढ़ने लायक है
      a16z news interview में इसका विस्तार से ज़िक्र है