- व्यापक घरेलू निगरानी और पूरी तरह स्वायत्त हथियार इन दो क्षेत्रों को कॉन्ट्रैक्ट से बाहर रखा गया
- Anthropic, अमेरिका और लोकतांत्रिक देशों की रक्षा के लिए AI के उपयोग को अपना मुख्य मिशन मानता है, और इसी उद्देश्य से रक्षा विभाग तथा खुफिया एजेंसियों के साथ सहयोग कर रहा है
- Claude मॉडल classified networks, national laboratories, national security agencies आदि में intelligence analysis, operational planning, cyber operations जैसे मिशनों के लिए उपयोग किए जा रहे हैं
- कंपनी चीनी कम्युनिस्ट पार्टी से जुड़ी कंपनियों के साथ कारोबार बंद करने, AI के दुरुपयोग वाले cyber attacks को रोकने, semiconductor export controls को कड़ा करने के समर्थन जैसे कदमों से अमेरिका की AI बढ़त की रक्षा कर रही है
- हालांकि, व्यापक घरेलू निगरानी और पूरी तरह स्वायत्त हथियार इन दो क्षेत्रों को लोकतांत्रिक मूल्यों और तकनीकी विश्वसनीयता से जुड़ी चिंताओं के कारण उपयोग से स्पष्ट रूप से बाहर रखा गया है
- Anthropic ने रक्षा विभाग के दबाव के बावजूद इन दो सुरक्षा उपायों को बनाए रखने की अपनी स्थिति पर कायम रहते हुए सहयोग जारी रखने की इच्छा जताई है
Anthropic का रक्षा सहयोग और AI तैनाती
- Anthropic अमेरिकी सरकार के classified networks पर AI मॉडल तैनात करने वाली पहली अग्रणी कंपनियों में से है
- national laboratories और national security ग्राहकों के लिए custom models भी सबसे पहले उपलब्ध कराए
- Claude मॉडल रक्षा विभाग और कई सुरक्षा एजेंसियों में intelligence analysis, modeling and simulation, operational planning, cyber operations आदि के लिए इस्तेमाल हो रहे हैं
- कंपनी ने अमेरिका की AI तकनीकी बढ़त बनाए रखने के लिए अल्पकालिक लाभ छोड़ने के उदाहरण दिए
- चीनी कम्युनिस्ट पार्टी से जुड़ी कंपनियों के साथ कारोबार बंद कर सैकड़ों मिलियन डॉलर की बिक्री छोड़ी
- Claude का दुरुपयोग कर किए गए चीन-आधारित cyber attacks को रोका
- semiconductor export controls को कड़ा करने के समर्थन से लोकतांत्रिक देशों की तकनीकी बढ़त सुरक्षित करने की वकालत की
लोकतांत्रिक मूल्यों और तकनीकी विश्वसनीयता के आधार पर दो अपवाद
- Anthropic ने AI के ऐसे दो use cases को स्पष्ट रूप से बाहर रखा है जो लोकतांत्रिक मूल्यों को नुकसान पहुँचा सकते हैं
- व्यापक घरेलू निगरानी: वैध विदेशी intelligence गतिविधियों का समर्थन है, लेकिन देश के भीतर जन-निगरानी लोकतांत्रिक सिद्धांतों के विरुद्ध है
- AI-आधारित निगरानी किसी व्यक्ति की आवाजाही, web उपयोग और सामाजिक संबंधों के डेटा को अपने-आप जोड़कर बड़े पैमाने पर व्यक्तिगत profiling संभव बनाती है
- मौजूदा कानून तकनीकी प्रगति की रफ्तार के साथ नहीं चल पाए हैं, इसलिए कुछ निगरानी गतिविधियाँ अब भी कानूनी बनी हुई हैं
- पूरी तरह स्वायत्त हथियार: मानव हस्तक्षेप के बिना लक्ष्य पहचानने और हमला करने वाले हथियार मौजूदा तकनीक के अनुसार पर्याप्त रूप से विश्वसनीय नहीं हैं
- Anthropic ऐसे हथियारों के लिए कोई उत्पाद उपलब्ध नहीं कराता
- कंपनी ने रक्षा विभाग को विश्वसनीयता सुधारने के लिए शोध सहयोग का प्रस्ताव दिया था, लेकिन उसे स्वीकार नहीं किया गया
- उचित supervision और safeguards की कमी के कारण फिलहाल इन्हें तैनात नहीं किया जा सकता, यह स्पष्ट किया गया
रक्षा विभाग की मांगें और Anthropic की प्रतिक्रिया
- रक्षा विभाग ने AI कंपनियों से “सभी वैध उपयोगों के लिए सहमति” देने और ऊपर बताए गए दोनों सुरक्षा उपाय हटाने की मांग की
- इनकार करने पर Anthropic को supply chain risk घोषित करने या Defense Production Act लागू कर मजबूर करने की चेतावनी दी गई
- ये दोनों कदम स्वभाव में परस्पर विरोधी हैं; एक में कंपनी को सुरक्षा जोखिम माना जाता है, जबकि दूसरे में उसे राष्ट्रीय सुरक्षा के लिए आवश्यक तकनीक माना जाता है
- Anthropic ने इस दबाव के बावजूद स्पष्ट रूप से कहा कि वह अंत:करण के आधार पर इन मांगों को स्वीकार नहीं कर सकता
- कंपनी ने माना कि रक्षा विभाग को दूसरे कॉन्ट्रैक्टर चुनने का अधिकार है, लेकिन इन दोनों सुरक्षा उपायों को बनाए रखते हुए सहयोग जारी रखने की इच्छा जताई
- यदि कॉन्ट्रैक्ट समाप्त भी हो जाए, तब भी स्मूद ट्रांज़िशन सपोर्ट देने और सैन्य अभियानों या योजना पर असर न पड़े, इसके लिए सहयोग करने का वादा किया
आगे की स्थिति
- Anthropic ने अमेरिका की राष्ट्रीय सुरक्षा के समर्थन की अपनी प्रतिबद्धता दोहराई
- कंपनी रक्षा विभाग के साथ सहयोग जारी रखना चाहती है, लेकिन लोकतांत्रिक मूल्यों और तकनीकी सुरक्षा के सिद्धांतों पर समझौता नहीं करेगी
अभी कोई टिप्पणी नहीं है.