- अमेरिकी रक्षा विभाग(DoD) के साथ classified environment में advanced AI systems deployment से जुड़ा एक अनुबंध किया, और अनुरोध किया कि यही शर्तें सभी AI कंपनियों पर भी समान रूप से लागू की जाएं
- समझौते में तीन red lines स्पष्ट की गई हैं: large-scale domestic surveillance, autonomous weapons systems का direct control, और high-risk automated decision-making में OpenAI तकनीक का उपयोग नहीं किया जाएगा
- cloud-only deployment मॉडल अपनाया गया है, OpenAI के पास safety stack पर पूरा विवेकाधिकार रहेगा, और security-cleared OpenAI कर्मी loop में शामिल रहेंगे
- दावा किया गया कि इसमें Anthropic आदि के मौजूदा अनुबंधों की तुलना में अधिक मजबूत guardrails हैं, और edge device deployment को बाहर रखकर autonomous weapons के लिए विशेष उपयोग की संभावना रोकी गई है
- AI कंपनियों और सरकार के बीच लोकतांत्रिक सहयोग व्यवस्था बनाने की आवश्यकता पर जोर दिया गया, और सरकार से Anthropic के साथ मतभेद सुलझाने का अनुरोध भी किया गया
अनुबंध की पृष्ठभूमि और उद्देश्य
- अमेरिकी रक्षा विभाग के साथ classified environment में advanced AI systems deployment पर अनुबंध किया गया, और यही शर्तें सभी AI कंपनियों को भी देने का अनुरोध किया गया
- AI तकनीक के महत्व को देखते हुए लोकतांत्रिक प्रक्रिया और AI research के बीच गहरे सहयोग की आवश्यकता पर जोर
- अमेरिका की रक्षा करने वालों के पास सर्वोत्तम tools होने चाहिए, लेकिन साथ ही यह भी मान्यता कि यह तकनीक दुनिया के लिए नए जोखिम पैदा कर सकती है
तीन red lines
- large-scale domestic surveillance में OpenAI तकनीक के उपयोग पर रोक
- autonomous weapons systems के direct control में OpenAI तकनीक के उपयोग पर रोक
- high-risk automated decision-making (जैसे social credit systems आदि) में OpenAI तकनीक के उपयोग पर रोक
- जहां दूसरे AI labs safety guardrails को कम या हटाकर केवल usage policy पर निर्भर रहते हैं, OpenAI का कहना है कि multi-layered protection approach अधिक प्रभावी है
अनुबंध के मुख्य घटक
-
deployment architecture
- cloud-only deployment, जिसमें OpenAI द्वारा सीधे संचालित safety stack शामिल है
- guardrails हटाए गए models या safety training के बिना models उपलब्ध नहीं कराए जाएंगे
- edge device deployment को बाहर रखकर autonomous lethal weapons में उपयोग की संभावना रोकी गई है
- red lines के उल्लंघन की independent verification संभव होगी, और classifiers चलाए व अपडेट किए जा सकेंगे
-
अनुबंध की शर्तें
- रक्षा विभाग AI systems का उपयोग लागू कानून, operational requirements, और स्थापित safety तथा oversight protocols के अनुरूप किसी भी वैध उद्देश्य के लिए कर सकता है
- जहां कानून, regulation, या department policy मानव नियंत्रण की मांग करते हैं, वहां autonomous weapons को स्वतंत्र रूप से command करने के लिए इसका उपयोग नहीं किया जा सकता
- DoD Directive 3000.09 (25 जनवरी 2023) के अनुसार autonomous और semi-autonomous systems में AI के उपयोग को deployment से पहले वास्तविक परिस्थितियों में कड़े validation, verification, और testing से गुजरना होगा
- intelligence activities के दौरान personal information का प्रबंधन Fourth Amendment, National Security Act (1947), Foreign Intelligence Surveillance Act (1978), Executive Order 12333 और संबंधित रक्षा विभाग निर्देशों के अनुसार होना चाहिए
- अमेरिकी नागरिकों की personal information पर unrestricted monitoring निषिद्ध है
- domestic law enforcement activities में उपयोग केवल Posse Comitatus Act और अन्य लागू कानूनों द्वारा अनुमति मिलने पर ही संभव है
-
AI विशेषज्ञों की भागीदारी
- security-cleared OpenAI engineers को सरकार की सहायता के लिए forward deployed किया जाएगा
- security-cleared safety और alignment researchers loop में शामिल रहेंगे
FAQ के प्रमुख बिंदु
-
यह अनुबंध क्यों किया गया
- अमेरिकी सेना को संभावित प्रतिद्वंद्वी देशों द्वारा AI तकनीक के एकीकरण के खतरे से निपटने के लिए शक्तिशाली AI models की आवश्यकता है
- शुरुआत में यह आकलन था कि classified deployment के लिए safeguards और systems तैयार नहीं थे, इसलिए तुरंत अनुबंध नहीं किया गया; red lines का पालन सुनिश्चित करने के लिए तैयारी की गई
- national security कार्यों में performance सुधारने के लिए मुख्य technical safeguards को हटाना सही तरीका नहीं है
- इसका उद्देश्य रक्षा विभाग और अमेरिकी AI labs के बीच तनाव को कम करना भी है, और सरकार से अनुरोध किया गया कि वही शर्तें सभी AI labs को दे तथा विशेष रूप से Anthropic के साथ मुद्दों का समाधान करे
-
Anthropic से तुलना
- OpenAI का कहना है कि उसका अनुबंध Anthropic के मौजूदा अनुबंध की तुलना में बेहतर assurances और अधिक जिम्मेदार safeguards देता है
- cloud-only deployment (edge नहीं), अपने safety stack को बनाए रखना, और security-cleared OpenAI कर्मियों की भागीदारी red lines को अधिक enforceable बनाती है
- OpenAI ने कहा कि उसे नहीं पता Anthropic यह अनुबंध क्यों नहीं कर पाया, लेकिन उम्मीद है कि Anthropic और अधिक labs इस पर विचार करेंगे
-
Anthropic को "supply chain risk" घोषित करने का प्रश्न
- OpenAI ने कहा कि वह Anthropic को "supply chain risk" घोषित करने का विरोध करता है, और यह रुख सरकार को स्पष्ट रूप से बताया गया
-
autonomous weapons की संभावना
- safety stack, cloud-only deployment, अनुबंध की भाषा, और मौजूदा कानूनों, regulations, तथा policies के आधार पर इसे autonomous weapons में उपयोग नहीं किया जा सकता
- OpenAI कर्मियों की loop में भागीदारी अतिरिक्त assurance देती है
-
large-scale surveillance की संभावना
- safety stack, अनुबंध की भाषा, और रक्षा विभाग की domestic surveillance पर कड़ी सीमा लगाने वाले मौजूदा कानूनों के आधार पर इसे large-scale surveillance में उपयोग नहीं किया जा सकता
-
safety stack के बिना deployment संभव है या नहीं
- OpenAI के पास safety stack पर पूर्ण नियंत्रण रहेगा, और बिना safety guardrails के deployment नहीं किया जाएगा
- जहां दूसरे AI labs model guardrails को कम कर usage policy को मुख्य सुरक्षा मानते हैं, OpenAI का कहना है कि उसका multi-layered approach अधिक प्रभावी है
-
यदि सरकार अनुबंध का उल्लंघन करे
- सामान्य अनुबंधों की तरह, यदि दूसरी पक्ष शर्तों का उल्लंघन करता है तो अनुबंध समाप्त किया जा सकता है
-
यदि कानून या policy बदल जाए
- अनुबंध में surveillance और autonomous weapons से जुड़े कानूनों और policies का वर्तमान मानकों के अनुसार स्पष्ट संदर्भ दिया गया है
- भविष्य में कानून या policy बदलने पर भी system का उपयोग अनुबंध में परिलक्षित वर्तमान मानकों के अनुरूप होना चाहिए
- Anthropic द्वारा सुझाई गई दो red lines—large-scale domestic surveillance और fully autonomous weapons—से OpenAI भी सहमत है, और इसके साथ automated high-risk decision-making को तीसरी red line के रूप में जोड़ा गया है
- large-scale domestic surveillance: बातचीत की प्रक्रिया में यह स्पष्ट था कि रक्षा विभाग इसे अवैध मानता है और इस उद्देश्य से उपयोग की योजना नहीं रखता; इसलिए अनुबंध में इसे वैध उपयोग की श्रेणी से बाहर स्पष्ट रूप से दर्ज किया गया
- fully autonomous weapons: अनुबंध में शामिल cloud deployment environment में fully autonomous weapons चल नहीं सकते, क्योंकि इसके लिए edge deployment आवश्यक है
- इन सुरक्षा उपायों के अलावा safety stack और OpenAI तकनीकी विशेषज्ञों की loop में भागीदारी जैसी अतिरिक्त multi-layered safeguards भी मौजूद हैं
अभी कोई टिप्पणी नहीं है.