- OpenAI के CEO Sam Altman ने घोषणा की कि अमेरिकी रक्षा विभाग(DoD) के साथ गोपनीय नेटवर्क में मॉडल तैनात करने की सहमति बन गई है
- इस सहमति में घरेलू स्तर पर बड़े पैमाने की निगरानी पर रोक और autonomous weapon systems सहित बल प्रयोग के लिए मानव जिम्मेदारी का सिद्धांत शामिल है, और रक्षा विभाग ने भी इन सिद्धांतों से सहमति जताई
- मॉडल को इच्छित तरीके से काम करने योग्य बनाने के लिए technical safeguards बनाए जाएंगे, और केवल cloud network में तैनाती तथा field deployment engineer (FDE) की नियुक्ति जैसी शर्तें शामिल हैं
- OpenAI ने अनुरोध किया कि रक्षा विभाग यही समान शर्तें सभी AI कंपनियों को भी प्रस्तावित करे, और उसका मानना है कि ये ऐसी शर्तें हैं जिन्हें सभी कंपनियां स्वीकार कर सकती हैं
- कंपनी ने कानूनी या सरकारी स्तर की कार्रवाइयों के बजाय तार्किक सहमति के ज़रिए स्थिति को शांत करने की मजबूत इच्छा व्यक्त की
सहमति की मुख्य बातें
- OpenAI ने रक्षा विभाग के गोपनीय नेटवर्क में मॉडल तैनात करने की सहमति की
- बातचीत की प्रक्रिया में OpenAI का आकलन था कि रक्षा विभाग ने सुरक्षा के प्रति गहरा सम्मान और बेहतर परिणाम के लिए साझेदारी करने की इच्छा दिखाई
सुरक्षा सिद्धांत
- AI safety और उसके लाभों का व्यापक वितरण OpenAI के mission का मुख्य हिस्सा है
- सहमति में शामिल दो प्रमुख सुरक्षा सिद्धांत:
- घरेलू स्तर पर बड़े पैमाने की निगरानी पर रोक
- autonomous weapon systems सहित बल प्रयोग के लिए मानव की जिम्मेदारी
- रक्षा विभाग ने भी इन सिद्धांतों से सहमति जताई और इन्हें कानून और नीति में शामिल कर समझौते में स्पष्ट रूप से दर्ज किया
तकनीकी सुरक्षा उपाय और तैनाती की शर्तें
- मॉडल को इच्छित ढंग से काम करने देने के लिए technical safeguards बनाए जाएंगे, और यह रक्षा विभाग की भी मांग थी
- मॉडल सपोर्ट और सुरक्षा सुनिश्चित करने के लिए field deployment engineer FDE (Field Deployment Engineer) तैनात किए जाएंगे
- केवल cloud network में तैनाती की शर्त
पूरे उद्योग तक विस्तार का अनुरोध
- OpenAI ने रक्षा विभाग से अनुरोध किया कि ये समान शर्तें सभी AI कंपनियों को भी प्रस्तावित की जाएं
- OpenAI का मानना है कि ये ऐसी शर्तें हैं जिन्हें सभी कंपनियां स्वीकार करने के लिए तैयार होंगी
- कंपनी ने कानूनी या सरकारी हस्तक्षेप के बजाय तार्किक सहमति के माध्यम से स्थिति को शांत करने की मजबूत इच्छा जताई
3 टिप्पणियां
आख़िरकार अमेरिकी रक्षा विभाग ने Anthropic को छोड़कर OpenAI को चुना, लेकिन आम तौर पर कही जाने वाली wording में फर्क दिखता है.
OpenAI ने तकनीकी safety guardrails बनाना, FDE (field engineer) तैनात करना, और cloud-only deployment जैसी ठोस implementation mechanisms साथ में प्रस्तावित किए
Anthropic ने terms of service स्तर के exception clauses की मांग की
अमेरिकी रक्षा विभाग के नज़रिए से इसे "एक निजी कंपनी अलग-अलग use cases पर veto power का इस्तेमाल करती है" की तरह देखा गया, और मानो नाराज़गी में यह घोषणा की गई.
यह समझौता Anthropic को supply chain risk के रूप में नामित किए जाने के कुछ ही समय बाद घोषित किया गया,
Axios की रिपोर्ट देखें तो रक्षा विभाग ने Anthropic के साथ टकराव का इस्तेमाल दूसरी AI कंपनियों के साथ बातचीत में tone सेट करने के लिए किया,
और OpenAI ने उस दबाव के बीच रक्षा विभाग के लिए स्वीकार्य रूप में समझौता कर लिया.
आधिकारिक बयान की भाषा में भी बड़ा फर्क है.
Sam Altman ने कहा कि "रक्षा विभाग ने safety के प्रति गहरा सम्मान दिखाया",
जबकि Anthropic की तरफ़ से अंत तक "रक्षा विभाग की मांगों से हम अंतरात्मा के स्तर पर सहमत नहीं हो सकते" वाला tone रहा.
लगता है कि सिद्धांत एक जैसे होने पर भी रक्षा विभाग की प्रतिष्ठा बनाए रखने या न रखने का फर्क बड़ा था,
और नतीजे में OpenAI ने इसे स्वीकार कर लिया तो स्थिति कुछ अजीब दिखने लगी,
इसलिए लगता है कि Sam Altman ने अंत में यह जोड़कर कि "ये शर्तें सभी AI कंपनियों को समान रूप से प्रस्तावित की जाएं",
Anthropic पर हुई कार्रवाई को नरम करने का एक परोक्ष संदेश दिया.
एक ही स्तर का कॉन्ट्रैक्ट हो, फिर भी भरोसे या इमेज का एहसास सच में बहुत अलग लगता है.
लगता है अब मुझे gpt subscription cancel कर देनी चाहिए.
Hacker News की राय
अगर OpenAI ने भी Anthropic की माँगी गई शर्तों पर दृढ़ रुख रखा होता, तो सरकार इस कॉन्ट्रैक्ट को मंजूरी नहीं देती
अंततः इसे एक अप्रकट सहमति के अलावा और कुछ नहीं माना जा सकता कि OpenAI वास्तव में इन red lines को लागू नहीं करेगा
अब जो लोग बचे हैं, वे ज़्यादातर stock की वजह से हैं
इसमें “घरेलू बड़े पैमाने की निगरानी पर रोक” और “बल प्रयोग के लिए मानव की जिम्मेदारी” स्पष्ट रूप से लिखा गया है, और DoW(Department of War) ने भी इस पर सहमति जताई है
बेवजह राजनीतिक पूँजी खर्च करना और उससे भी बुरा सौदा करना उनका तरीका रहा है
OpenAI ने Anthropic जैसी शर्तें रखी हों, फिर भी lobbying fund या PR effect की वजह से सरकार ने आँख मूँद ली हो सकती है
मैंने भी ChatGPT delete कर दिया, subscription cancel कर दी, और Anthropic को ज़्यादा support करने का फैसला किया है
लगा कि सिद्धांतों पर टिके रहना मायने रखता है, और अब OpenAI पर भरोसा नहीं है
Sam Altman के लिए बचा-खुचा सम्मान भी खत्म हो गया, और मानवीय लालच से दूषित AI की हकीकत बेहद घिनौनी लगती है
OpenAI के nonprofit के रूप में शुरू होने वाले आदर्श अब पूरी तरह गायब हो चुके हैं
सबको subscription cancel कर देनी चाहिए, और ऐसी कंपनियों व CEOs पर कड़ा tax लगना चाहिए
सिर्फ product quality देखकर भी लगा कि OpenAI अब पहले जैसा नहीं रहा
Google क्या विकल्प चुनता है, यह देखूँगा
उनका “बल प्रयोग के लिए मानव की जिम्मेदारी” जैसा वाक्य बच निकलने वाली भाषा जैसा लगता है
यानी आखिरकार autonomous lethal weapons भी संभव हैं
भले ही राष्ट्रपति या रक्षा विभाग को ‘जिम्मेदार’ बताया जाए, वास्तविक जवाबदेही तय करना असंभव होगा
पहली पोस्ट में कहा गया कि OpenAI के कॉन्ट्रैक्ट में कानूनी प्रतिबंधों को आधार मानने वाले safeguards शामिल हैं
दूसरी पोस्ट में कहा गया कि कॉन्ट्रैक्ट “सभी कानूनी उपयोग” के आधार पर किया गया, और यह लोकतांत्रिक व्यवस्था को अधिकार देने वाला दृष्टिकोण है
कहा गया कि Anthropic ने इस तरह के समझौते को ठुकरा दिया
अतीत में गैरकानूनी कामों को कानूनी रूप देकर पेश करने के कई उदाहरण हैं, और कानून ही बदल देने की मिसालें भी हैं
आखिरकार सिर्फ कानून के भरोसे सरकार के सत्ता दुरुपयोग को नहीं रोका जा सकता
उसकी बात सही भी हो, तब भी किसी भरोसेमंद मीडिया outlet के कॉन्ट्रैक्ट का पूरा पाठ प्रकाशित करने तक यकीन करना मुश्किल है
अगर यह सच निकला, तो OpenAI और अमेरिकी सेना का boycott करना उचित प्रतिक्रिया हो सकती है
संबंधित लेख
शायद समस्या red lines नहीं, बल्कि यह थी कि सरकार Anthropic को राजनीतिक प्रतिद्वंद्वी मानती थी
लेकिन थोड़ा निष्पक्ष होकर देखें तो असली मुद्दा यह है कि “कानूनी उपयोग” का निर्णय सरकार करेगी या AI कंपनी
संबंधित ट्वीट देखें तो कहा गया कि Anthropic इस मानक को Claude के संविधान में सीधे शामिल करना चाहता था
अंततः OpenAI की स्पष्ट स्थिति आने तक मैंने subscription cancel कर दी
लेकिन अचानक SCR designation और DPA forced acquisition की धमकी देकर फिर से बातचीत माँगी गई
अगर OpenAI का कॉन्ट्रैक्ट Anthropic जैसा ही है, तो यह सचमुच दोगला और अन्यायपूर्ण है
समय बीतने पर autonomous weapons के लिए मॉडल की अनुमति दे दी जाएगी, और surveillance features को Palantir के ज़रिए बायपास भी किया जा सकता है
यह Anthropic को बुरा दिखाने की रणनीतिक झूठ भी हो सकती है
OpenAI अपने user base के बिना मौजूदा अतिमूल्यांकित valuation को बनाए नहीं रख सकता
दूसरे मॉडल अब पहले से ही काफी प्रतिस्पर्धी हैं
इस तरह के भ्रष्ट आचरण से थक चुका हूँ