- OpenAI ने Department of War के साथ classified environment में advanced AI systems deploy करने का अनुबंध किया है, और अनुरोध किया है कि इसे सभी AI कंपनियों पर समान रूप से लागू किया जाए
- OpenAI ने कहा कि इस अनुबंध में मौजूदा classified AI deployments की तुलना में ज़्यादा safety guardrails शामिल हैं
- OpenAI ने स्पष्ट red lines बताईं कि उसकी तकनीक का उपयोग बड़े पैमाने पर घरेलू निगरानी, autonomous weapons command, high-risk automated decision-making के लिए नहीं किया जाएगा
- safety stack पर पूर्ण discretion बनाए रखना, cloud-based deployment, security clearance प्राप्त कर्मियों की भागीदारी, और मज़बूत contractual protections लागू करना शामिल है
- OpenAI ने Department of War को स्पष्ट रूप से बताया कि Anthropic को supply chain risk के रूप में नामित नहीं किया जाना चाहिए
Department of War के साथ अनुबंध
- OpenAI ने Department of War के साथ advanced AI systems को classified environment में deploy करने का अनुबंध किया
- उसने अनुरोध किया कि यह deployment सभी AI कंपनियों को समान रूप से उपलब्ध कराया जाए
- OpenAI ने कहा कि इस अनुबंध में मौजूदा classified AI deployment contracts की तुलना में ज़्यादा safety safeguards शामिल हैं
Red lines बरकरार
- OpenAI की तकनीक का उपयोग बड़े पैमाने पर घरेलू निगरानी के लिए नहीं किया जाएगा
- OpenAI की तकनीक का उपयोग autonomous weapons systems command के लिए नहीं किया जाएगा
- OpenAI की तकनीक का उपयोग high-risk automated decision-making systems (जैसे: social credit) में नहीं किया जाएगा
बहु-स्तरीय सुरक्षा संरचना
- यह उन कुछ AI labs से अलग है जिन्होंने national security deployments में usage policy-centered protections को कम किया या हटा दिया
- OpenAI ने विस्तारित multi-layered approach लागू की
- safety stack पर पूर्ण discretion बनाए रखना
- cloud-based deployment model बनाए रखना
- security clearance प्राप्त OpenAI personnel की भागीदारी वाली संरचना
- मज़बूत contractual protections शामिल करना
- मौजूदा अमेरिकी कानूनों के protections के साथ समानांतर रूप से लागू करना
Anthropic पर रुख
- OpenAI ने Anthropic को supply chain risk के रूप में नामित करने का विरोध किया
- यह रुख Department of War को स्पष्ट रूप से बताया गया
5 टिप्पणियां
लगता है कि इससे जुड़ी घटनाओं की एक टाइमलाइन तैयार करने की ज़रूरत है। यह भी कहा जा रहा है कि OpenAI के साथ contract negotiations चल रही थीं, है न?
यह पहली बार है कि मैंने "कोई सामग्री नहीं" वाला सारांश त्रुटि देखी है..
लगता है कि ऐसे मामले इसलिए हो रहे हैं क्योंकि x के लिए crawl करना थोड़ा मुश्किल हो गया है। हम इसे बेहतर बनाने की कोशिश करेंगे।
मैं हमेशा आपकी सामग्री ध्यान से पढ़ता/पढ़ती हूँ, धन्यवाद।
Hacker News राय
असली मुद्दा OpenAI कॉन्ट्रैक्ट की वास्तविक भाषा और Altman जो कह रहे हैं, उनके बीच का फर्क है
कॉन्ट्रैक्ट में लिखा है कि “जहाँ कानून या policy मानव नियंत्रण की मांग करते हैं, वहाँ इसे autonomous weapons operation में इस्तेमाल नहीं किया जाएगा”
यानी अगर रक्षा विभाग यह तय कर दे कि “मानव नियंत्रण की ज़रूरत नहीं है”, तो यह वैसे ही संभव हो जाता है
Anthropic ने “mass surveillance बिल्कुल नहीं” जैसी पूर्ण निषेध-रेखा रखी, जबकि OpenAI ने इसे “अगर कानून अनुमति दे तो संभव” जैसी नरमी के साथ रखा
ऐसा कॉन्ट्रैक्ट करने के बाद Anthropic का समर्थन करने का दिखावा करना इस इंडस्ट्री में कम ही दिखने वाला PR शो लगता है
X thread में OpenAI ने दावा किया कि “रक्षा विभाग के साथ हमारा कॉन्ट्रैक्ट हमारी redline का पालन करता है”
लेकिन NPR लेख के अनुसार Anthropic को वही मानक बनाए रखने की वजह से कॉन्ट्रैक्ट से बाहर कर दिया गया, और OpenAI ने पैसा ले लिया
इसलिए उसे कॉन्ट्रैक्ट मिला
लेकिन यह guardrail नागरिक निगरानी को रोक पाएँगे या नहीं, इस पर संदेह है
“Any Lawful Use” clause की समस्या यह है कि रक्षा विभाग ‘lawful’ की परिभाषा अपनी मर्ज़ी से तय कर सकता है
कोई internal lawyer एक memo लिख दे, और वही तुरंत वैध बन जाता है
सरकारी अधिकारों के दुरुपयोग को वोट और संस्थागत सुधार से ठीक करना होगा
सिस्टम इस तरह डिज़ाइन नहीं किया गया था, लेकिन हक़ीक़त अलग है
आखिरकार नए नाम वाला “Department of War” सिर्फ टैक्स का पैसा बर्बाद करेगा और बेकार की तकनीक महँगे दाम पर खरीदेगा
नागरिकों के लिए अफ़सोस होता है
Anthropic और OpenAI के बीच फ़र्क यह है कि Anthropic तकनीकी रूप से सीमाएँ लागू करवाना चाहता था, जबकि OpenAI ने सिर्फ इतना मौखिक वादा किया कि “उम्मीद है सरकार इसका उल्लंघन नहीं करेगी”
सरकार ने दूसरे विकल्प को चुना, यह स्वाभाविक है
यानी यह गुंजाइश छोड़ी गई है कि “अगर वैध हो, तो mass surveillance या autonomous lethal weapons भी संभव हैं”
स्वायत्त घातक निर्णय लेने वाली AI बहुत ख़तरनाक सोच है
सिर्फ superintelligence की वजह से नहीं, बल्कि इसलिए कि छोटे models से भी कोई ट्रैक न किए जा सकने वाले हथियार बना सकता है
मौजूदा models ने मानव जीवन के प्रति सकारात्मक रुख सीखा है, लेकिन अगर उसे हटा दिया जाए तो यह राक्षसी सिस्टम बन जाता है
वह सिर्फ probabilistic token predictor है
उदाहरण के लिए, कोई program मारने के लक्ष्यों की सूची बनाता था और इंसान drone चलाता था
लोग शायद भूल रहे हैं कि Anthropic ने Palantir के साथ साझेदारी की थी
यह बात सामने आने पर बस PR से उसे ढक दिया गया
लगता है OpenAI इस विवाद में ग्राहक खो रहा है, इसलिए उसने image management पोस्ट डाली है
Anthropic सरकार द्वारा AI regulation कड़ा किए जाने के पक्ष में था, और अब जैसे उसी का नतीजा उसे खुद भुगतना पड़ रहा है
यह मामला ऐसा लगता है कि OpenAI कमज़ोर नैतिक मानकों पर हो रही आलोचना को PR से संभालने की कोशिश कर रहा है
विदेशों में अब भी अनैतिक इस्तेमाल संभव है