- अमेरिकी War Department ने Anthropic को राष्ट्रीय सुरक्षा के लिए supply chain risk factor के रूप में नामित किया है, और कंपनी का मानना है कि यह कदम कानूनी रूप से उचित नहीं है, इसलिए वह कानूनी कार्रवाई की तैयारी कर रही है
- War Department के पत्र के अनुसार Claude मॉडल के उपयोग पर लगी सीमा बहुत संकीर्ण है, और यह केवल उन ग्राहकों के उपयोग पर लागू होती है जो सीधे War Department contract से जुड़े हैं
- संबंधित कानून (10 USC 3252) सरकार की सुरक्षा के उद्देश्य से मौजूद है, और War Department के Secretary को सबसे कम प्रतिबंधात्मक उपाय ही इस्तेमाल करने चाहिए
- Anthropic War Department के साथ सहयोग जारी रखने और सुचारु transition के उपायों पर चर्चा कर रहा है, और स्वायत्त हथियारों तथा बड़े पैमाने की घरेलू निगरानी पर अपने अपवाद सिद्धांत बरकरार रखे हुए है
- कंपनी ने कहा कि वह युद्ध में लगे अमेरिकी सैनिकों और सुरक्षा विशेषज्ञों को आवश्यक tools से वंचित न होने देने के लिए समर्थन जारी रखेगी, और राष्ट्रीय सुरक्षा में AI के उपयोग को लेकर साझा लक्ष्य पर जोर दिया
War Department द्वारा supply chain risk designation
- War Department ने सूचित किया कि उसने Anthropic को अमेरिकी राष्ट्रीय सुरक्षा के लिए supply chain risk के रूप में वर्गीकृत किया है
- Anthropic का मानना है कि यह कदम कानूनी रूप से वैध नहीं है, और वह अदालत में इसे चुनौती देने की योजना बना रहा है
- War Department के पत्र की भाषा के अनुसार, यह designation केवल उन ग्राहकों पर लागू होती है जो Claude मॉडल को War Department contract के सीधे हिस्से के रूप में इस्तेमाल करते हैं
- War Department के साथ contract होने पर भी, उस contract से असंबंधित Claude उपयोग या Anthropic के साथ लेनदेन पर कोई प्रतिबंध नहीं है
कानूनी आधार और लागू होने का दायरा
- War Department की यह कार्रवाई 10 USC 3252 प्रावधान पर आधारित है, और यह कानून supply chain की सुरक्षा के लिए न्यूनतम प्रतिबंधात्मक उपायों के उपयोग की मांग करता है
- इस कानून का उद्देश्य supplier को दंडित करना नहीं बल्कि सरकार की सुरक्षा करना है
- इसलिए इस designation का दायरा बहुत सीमित है, और War Department contractors के बाहर के ग्राहकों पर इसका कोई प्रभाव नहीं है
War Department के साथ सहयोग और अपवाद सिद्धांत
- Anthropic ने पिछले कुछ दिनों में War Department के साथ सहयोग जारी रखने के तरीकों और transition प्रक्रिया पर चर्चा की है
- कंपनी intelligence analysis, modeling और simulation, operations planning, cyber operations जैसे कई क्षेत्रों में War Department का समर्थन करती रही है
- Anthropic स्वायत्त हथियारों और बड़े पैमाने की घरेलू निगरानी पर दो अपवाद सिद्धांत बनाए रखता है
- कंपनी ने स्पष्ट किया कि सैन्य अभियानों के निर्णयों में निजी कंपनियों की भागीदारी नहीं होनी चाहिए
आंतरिक पोस्ट लीक होने की घटना
- कंपनी ने पिछले दिन मीडिया में लीक हुई आंतरिक पोस्ट के लिए माफी मांगी
- यह पोस्ट राष्ट्रपति की Truth Social post, War Department Secretary की X post, और OpenAI तथा Department of Defense के contract announcement के तुरंत बाद लिखी गई थी
- Anthropic ने कहा कि उसने यह post लीक नहीं की, और स्थिति को और बिगाड़ने का उसका कोई इरादा नहीं था
- यह post 6 दिन पहले लिखी गई थी, इसलिए यह मौजूदा स्थिति को नहीं दर्शाने वाला पुराना आकलन है
आगे का समर्थन और साझा लक्ष्य
- Anthropic की योजना है कि वह युद्ध में लगे अमेरिकी सैनिकों और राष्ट्रीय सुरक्षा विशेषज्ञों को आवश्यक tools का उपयोग जारी रखने में समर्थन दे
- वह War Department और सुरक्षा एजेंसियों को नाममात्र लागत पर मॉडल और तकनीकी सहायता देता रहेगा
- कंपनी ने कहा कि War Department के साथ उसका साझा लक्ष्य अमेरिकी सुरक्षा को मजबूत करना और सरकार में AI के उपयोग का विस्तार करना है
- आगे के सभी निर्णय इसी साझा आधार पर लिए जाएंगे
1 टिप्पणियां
Hacker News की राय
यह देखकर हैरानी होती है कि इस मामले में Overton window कितनी दूर खिसक चुकी है
जब मैं 2007 में ग्रेजुएट हुआ था, तब टेक कंपनियों का अपने सिस्टम के युद्ध में इस्तेमाल होने से इनकार करना आम था, और ऐसी कंपनियों में नौकरी न करने वाले लोग भी नैतिक कारणों से बहुत थे
लेकिन अब Anthropic नैतिक नहीं बल्कि व्यावहारिक कारणों से सिर्फ दो अपवाद रखना चाहता है। वह भी ऐसी भाषा में पेश किया जा रहा है मानो वे युद्ध का समर्थन करना चाहते हों, पर मजबूर हों। दुनिया सचमुच बहुत बदल गई है
यह napalm-विरोधी फ़िल्म है, जो इस स्थिति का व्यंग्य करती है कि मज़दूरों को पता ही नहीं होता कि वे जो बना रहे हैं वह असल में हथियार है
इसका आख़िरी संवाद — “हम क्या उत्पादन करते हैं, यह मज़दूरों, छात्रों और इंजीनियरों पर निर्भर करता है” — आज भी उतना ही प्रासंगिक है
पहले ऐसी कहानियाँ ethical education का हिस्सा हुआ करती थीं, लेकिन अब लगता है कि ऐसी कक्षाएँ भी गायब हो गई हैं
वे autonomous lethal weapons technology को सिर्फ इसलिए ठुकरा रहे हैं क्योंकि वह अभी पर्याप्त विकसित नहीं है; यानी इसमें भी ‘अभी’ जैसी शर्त लगी हुई है
OpenAI से बेहतर सही, लेकिन अंत में यह बस ‘कम बुरा विकल्प’ ही है
रक्षा अनुसंधान की ज़रूरत जैसी वास्तविकताएँ हैं, लेकिन अगर automated decision-making systems मानव नियंत्रण से बाहर चले जाएँ तो यह ख़तरनाक है
मेरा मानना है कि क़ानूनन ‘human-in-the-loop’ को अनिवार्य किया जाना चाहिए
2007 का ‘युद्ध’ इराक था, और आज का ‘युद्ध’ Gaza, Iran, Venezuela, और साथ ही Ukraine या Taiwan पर संभावित आक्रमण तक फैला हुआ है
मुझे लगता है कि Anthropic के भीतर भी इस संदर्भ को ध्यान में रखा जा रहा होगा
कॉलेज के दिनों में मेरा एक दोस्त DARPA में काम करना चाहता था, और जब मैंने उससे इसका नैतिक पक्ष पूछा तो उसने कहा, “वह मेरी समस्या नहीं है”
अमेरिका में पढ़ते हुए मुझे यह महसूस हुआ कि industry management हो या universities, किसी की भी critical thinking और ethics education में खास दिलचस्पी नहीं है; ध्यान बस लोगों को साधारण तकनीकी औज़ार में बदलने पर है
Harvard की VR innovation week में भी ‘ethics and law’ session में founders या developers लगभग थे ही नहीं। सामाजिक प्रभाव पर चर्चा को पूरी तरह बाहर रखा गया था
अंततः ऐसा लगा कि पैसे के लिए पागलपन ने समाज की सोचने की क्षमता को ही तोड़ दिया है
अगर उसके नतीजे में किसी की मौत होती है, तो मुझे लगता है कि मेरी भी ज़िम्मेदारी है
लेकिन असली समस्या यह है कि रोज़ी-रोटी के लिए नैतिक सीमा पर टिके रहना मुश्किल होता है। आख़िर में हम सब एक ही नाव में हैं
George Orwell की रचना (लिंक) में भी कहा गया था कि सिर्फ विज्ञान की शिक्षा से मानवीय दृष्टि की गारंटी नहीं मिलती
“Anthropic की रक्षा विभाग से समानताएँ, उससे फ़र्क़ से ज़्यादा हैं” यह वाक्य पढ़कर मैं चौंक गया
लेकिन अब AI alignment को ‘war department के साथ alignment’ जैसी पंक्ति में रखना बौद्धिक रूप से अनुचित है
इस साल जिन देशों पर हमला हुआ, उनमें कोई भी मानवता के लिए अस्तित्वगत ख़तरा नहीं था। उल्टा, ऐसे युद्ध ही core risks को बढ़ाते हैं
समझ नहीं आता कि शोधकर्ताओं में विरोध की आवाज़ें और ज़्यादा क्यों नहीं हैं
AI का सैन्य उद्देश्यों के लिए राष्ट्रीयकरण होना बहुत संभव लगता है, और Anthropic का अपनी तकनीक को परमाणु बम से ज़्यादा ख़तरनाक बताना, फिर भी Palantir के साथ सैन्य सहयोग करना, विरोधाभासी है
Anthropic के “jeontuyowon (warfighter)” वाले बयान को देखकर सवाल उठता है
क्या सचमुच सिर्फ ये दो अपवाद ही नैतिक सीमा बनाए रखने के लिए काफ़ी हैं?
Anthropic इस घटना में ‘अच्छी तरफ़’ जैसा दिख रहा है, जबकि वह भी युद्ध उद्योग से पैसा कमा रहा है
Orwellian America 2026 की हक़ीक़त को ‘Warfighter’ शब्द जितना कुछ नहीं दिखाता
Mike Masnick की Techdirt पोस्ट का हवाला दिया गया
पहले की सरकारों में “हम चाहते हैं कि AI बिना मानव हस्तक्षेप के हत्या के फ़ैसले न ले” जैसी बात सामान्य बातचीत की शर्त होती
लेकिन अब हालात यह हैं कि रक्षा मंत्री खुलेआम कंपनी को ‘गद्दार’ कहकर निंदा करता है, राष्ट्रपति सभी सरकारी एजेंसियों को उसका उपयोग बंद करने का आदेश देता है, और CEO को ‘बंधक-पत्र’ जैसी माफ़ीनामा लिखनी पड़ती है
अगर सरकार की सत्ता और भ्रष्टाचार पर नियंत्रण न हो, तो कंपनियाँ आख़िरकार ऐसे सौदे करने लगती हैं
शुरुआत में यह पैसे और देशभक्ति से शुरू होता है, लेकिन धीरे-धीरे वे अपरिवर्तनीय कामों में फँस जाती हैं, और बाहर निकलना मुश्किल हो जाता है
फिर नया CEO आता है और कहता है, “पुराना व्यक्ति कमज़ोर था, मैं अलग हूँ,” और वही दुष्चक्र दोहराया जाता है
युद्ध उद्योग को तकनीक देने की सोच रखने वालों से मैं यह कहना चाहता हूँ
“सब कुछ छीन लिया जा सकता है, लेकिन विवेक तब तक नहीं खोता जब तक इंसान उसे ख़ुद न छोड़ दे”
बहुत से लोग वहाँ सिर्फ सरकार की मदद करने के विश्वास से काम करते हैं
यह देखना बहुत दिलचस्प होगा कि यह मामला अदालत और जनमत की अदालत में कैसे ख़त्म होता है
मुझे यह एक महत्वपूर्ण मामला लगता है, और उम्मीद है कि सही नतीजा निकलेगा
War Department के उपमंत्री Emil Michael ने आधिकारिक घोषणा में कहा कि “Anthropic के साथ कोई बातचीत नहीं होगी”
a16z news interview में इसका विस्तार से ज़िक्र है