- कैलिफ़ोर्निया के एक संघीय जज ने Pentagon की Anthropic को ‘supply chain risk’ घोषित करने की कोशिश को असंवैधानिक मानते हुए अनिश्चितकाल के लिए रोक दिया
- फ़ैसले में कहा गया कि यह कदम अभिव्यक्ति की स्वतंत्रता और due process का उल्लंघन करता है, और किसी अमेरिकी कंपनी को दुश्मन की तरह चिह्नित करने का कोई कानूनी आधार नहीं है
- यह फ़ैसला रक्षा मंत्री Pete Hegseth के अभिव्यक्ति-सीमित करने वाले कदमों पर अदालत द्वारा लगाई गई तीसरी रोक है, जिससे सरकार की प्रतिशोधात्मक प्रशासनिक कार्रवाई पर अंकुश लगता है
- Anthropic ने फ़ैसले का स्वागत करते हुए AI की सुरक्षा और विश्वसनीयता सुनिश्चित करने के लिए सहयोग की इच्छा पर ज़ोर दिया
- इस मामले का AI कंपनियों और सरकार के बीच कॉन्ट्रैक्ट संबंधों तथा सैन्य उपयोग की सीमाओं पर भविष्य के कानूनी मानकों पर असर पड़ सकता है
जज ने Anthropic को ‘supply chain risk’ घोषित करने की Pentagon की कोशिश रोकी
- कैलिफ़ोर्निया के एक संघीय जज ने Pentagon द्वारा Anthropic को ‘supply chain risk’ घोषित कर सरकार से उसके संबंध तोड़ने की कोशिश पर अनिश्चितकालीन रोक लगा दी
- फ़ैसले में माना गया कि यह कदम संवैधानिक अधिकारों का उल्लंघन करता है
- सरकार की अपील के लिए फ़ैसले के प्रभाव को 1 हफ्ते के लिए स्थगित रखा गया
- जज ने स्पष्ट लिखा कि “किसी अमेरिकी कंपनी को सरकार से मतभेद के कारण संभावित शत्रु या sabotage करने वाला बताना कानूनी आधार से रहित है”
- इस कदम को अभिव्यक्ति की स्वतंत्रता (First Amendment) और due process का उल्लंघन माना गया
- 43 पन्नों के फ़ैसले में सरकार की कार्रवाई को “Orwellian सोच” बताया गया
- पिछले कुछ महीनों में रक्षा मंत्री Pete Hegseth द्वारा पत्रकारों और राजनेताओं के खिलाफ उठाए गए कदमों पर अदालत की यह तीसरी रोक है
- इससे पहले Washington D.C. के संघीय जजों ने अलग-अलग फ़ैसलों में कहा था कि Hegseth ने मीडिया नीति और सीनेटरों के बयानों पर रोक के ज़रिए अभिव्यक्ति की स्वतंत्रता का उल्लंघन किया
- Anthropic ने फ़ैसले के तुरंत बाद कहा, “हम आभारी हैं कि अदालत ने तेज़ी से कार्रवाई करते हुए कंपनी के दावों को सही माना”
- कंपनी ने कहा कि यह मुकदमा अपनी कंपनी, ग्राहकों और पार्टनर्स की सुरक्षा के लिए उठाया गया कदम था, और वह आगे भी सरकार के साथ मिलकर सुरक्षित और भरोसेमंद AI विकसित करेगी
‘supply chain risk’ घोषणा का मतलब और पृष्ठभूमि
- ‘supply chain risk’ घोषणा का मतलब है कि सेना के साथ काम करने वाली हर कंपनी को यह साबित करना होगा कि उसने Anthropic के उत्पादों का उपयोग नहीं किया है
- यह घोषणा अब तक मूल रूप से विदेशी शत्रु देशों से जुड़ी कंपनियों पर ही लागू होती रही है
- Anthropic का कहना था कि इस कदम से अभिव्यक्ति की स्वतंत्रता का हनन, मानहानि, और सैकड़ों मिलियन डॉलर के कॉन्ट्रैक्ट्स पर खतरा पैदा हुआ
- Pentagon के साथ टकराव तब शुरू हुआ जब Anthropic ने Claude AI model के autonomous weapons और large-scale surveillance में उपयोग पर प्रतिबंध की अपनी नीति बनाए रखी
- Hegseth ने फ़रवरी में Anthropic को supply chain risk घोषित किया और संघीय एजेंसियों को उसका उपयोग बंद करने तथा संबंधित कंपनियों से लेनदेन तोड़ने का आदेश दिया
फ़ैसले के मुख्य आधार
- जज ने माना कि Pentagon की कार्रवाई राष्ट्रीय सुरक्षा उद्देश्य से असंबंधित एक प्रतिशोधात्मक कदम थी
- Pentagon के रिकॉर्ड में लिखा था कि Anthropic को इसलिए नामित किया गया क्योंकि उसने “मीडिया के ज़रिए शत्रुतापूर्ण रवैया” दिखाया
- जज ने लिखा, “सरकारी कॉन्ट्रैक्ट्स पर सार्वजनिक रूप से आलोचना करने वाली कंपनी को दंडित करना अभिव्यक्ति की स्वतंत्रता के खिलाफ अवैध प्रतिशोध है”
Pentagon का रुख और आगे की प्रतिक्रिया
- Pentagon ने Claude model के लिए “सभी वैध उद्देश्यों हेतु पूर्ण access” की मांग की
- Pentagon CTO Emil Michael ने CNBC इंटरव्यू में कहा कि “ऐसी कंपनी, जिसकी नीतिगत प्राथमिकताएँ model में ही अंतर्निहित हों, supply chain को प्रदूषित कर युद्धक क्षमता को कम नहीं कर सकती”
- Anthropic ने autonomous weapons और domestic surveillance पर प्रतिबंध के दो सिद्धांतों पर कायम रहने की बात दोहराई
- कंपनी का कहना है कि यह रुख संविधान द्वारा संरक्षित अभिव्यक्ति है
- Michael ने X (पूर्व Twitter) पर इस फ़ैसले को “शर्मनाक फ़ैसला” कहा और अपील करने की मंशा जताई
- उन्होंने दावा किया कि फ़ैसले में “दर्जनों तथ्यात्मक त्रुटियाँ” हैं, लेकिन कोई ठोस विवरण नहीं दिया
अतिरिक्त मुकदमे और आगे की संभावनाएँ
- Anthropic, Hegseth द्वारा supply chain risk घोषणा के लिए इस्तेमाल किए गए दूसरे कानूनी अधिकार को लेकर Washington D.C. की संघीय अदालत में एक अलग मुकदमा भी लड़ रही है
- यह फ़ैसला AI कंपनियों और सरकार के बीच कॉन्ट्रैक्ट संबंधों, खासकर AI के सैन्य उपयोग की सीमाओं से जुड़े कानूनी मानकों को प्रभावित कर सकता है
अभी कोई टिप्पणी नहीं है.