3 पॉइंट द्वारा GN⁺ 2026-02-28 | 3 टिप्पणियां | WhatsApp पर शेयर करें
  • OpenAI के CEO Sam Altman ने घोषणा की कि अमेरिकी रक्षा विभाग(DoD) के साथ गोपनीय नेटवर्क में मॉडल तैनात करने की सहमति बन गई है
  • इस सहमति में घरेलू स्तर पर बड़े पैमाने की निगरानी पर रोक और autonomous weapon systems सहित बल प्रयोग के लिए मानव जिम्मेदारी का सिद्धांत शामिल है, और रक्षा विभाग ने भी इन सिद्धांतों से सहमति जताई
  • मॉडल को इच्छित तरीके से काम करने योग्य बनाने के लिए technical safeguards बनाए जाएंगे, और केवल cloud network में तैनाती तथा field deployment engineer (FDE) की नियुक्ति जैसी शर्तें शामिल हैं
  • OpenAI ने अनुरोध किया कि रक्षा विभाग यही समान शर्तें सभी AI कंपनियों को भी प्रस्तावित करे, और उसका मानना है कि ये ऐसी शर्तें हैं जिन्हें सभी कंपनियां स्वीकार कर सकती हैं
  • कंपनी ने कानूनी या सरकारी स्तर की कार्रवाइयों के बजाय तार्किक सहमति के ज़रिए स्थिति को शांत करने की मजबूत इच्छा व्यक्त की

सहमति की मुख्य बातें

  • OpenAI ने रक्षा विभाग के गोपनीय नेटवर्क में मॉडल तैनात करने की सहमति की
  • बातचीत की प्रक्रिया में OpenAI का आकलन था कि रक्षा विभाग ने सुरक्षा के प्रति गहरा सम्मान और बेहतर परिणाम के लिए साझेदारी करने की इच्छा दिखाई

सुरक्षा सिद्धांत

  • AI safety और उसके लाभों का व्यापक वितरण OpenAI के mission का मुख्य हिस्सा है
  • सहमति में शामिल दो प्रमुख सुरक्षा सिद्धांत:
    • घरेलू स्तर पर बड़े पैमाने की निगरानी पर रोक
    • autonomous weapon systems सहित बल प्रयोग के लिए मानव की जिम्मेदारी
  • रक्षा विभाग ने भी इन सिद्धांतों से सहमति जताई और इन्हें कानून और नीति में शामिल कर समझौते में स्पष्ट रूप से दर्ज किया

तकनीकी सुरक्षा उपाय और तैनाती की शर्तें

  • मॉडल को इच्छित ढंग से काम करने देने के लिए technical safeguards बनाए जाएंगे, और यह रक्षा विभाग की भी मांग थी
  • मॉडल सपोर्ट और सुरक्षा सुनिश्चित करने के लिए field deployment engineer FDE (Field Deployment Engineer) तैनात किए जाएंगे
  • केवल cloud network में तैनाती की शर्त

पूरे उद्योग तक विस्तार का अनुरोध

  • OpenAI ने रक्षा विभाग से अनुरोध किया कि ये समान शर्तें सभी AI कंपनियों को भी प्रस्तावित की जाएं
  • OpenAI का मानना है कि ये ऐसी शर्तें हैं जिन्हें सभी कंपनियां स्वीकार करने के लिए तैयार होंगी
  • कंपनी ने कानूनी या सरकारी हस्तक्षेप के बजाय तार्किक सहमति के माध्यम से स्थिति को शांत करने की मजबूत इच्छा जताई

3 टिप्पणियां

 
xguru 2026-02-28

आख़िरकार अमेरिकी रक्षा विभाग ने Anthropic को छोड़कर OpenAI को चुना, लेकिन आम तौर पर कही जाने वाली wording में फर्क दिखता है.

OpenAI ने तकनीकी safety guardrails बनाना, FDE (field engineer) तैनात करना, और cloud-only deployment जैसी ठोस implementation mechanisms साथ में प्रस्तावित किए
Anthropic ने terms of service स्तर के exception clauses की मांग की

अमेरिकी रक्षा विभाग के नज़रिए से इसे "एक निजी कंपनी अलग-अलग use cases पर veto power का इस्तेमाल करती है" की तरह देखा गया, और मानो नाराज़गी में यह घोषणा की गई.

यह समझौता Anthropic को supply chain risk के रूप में नामित किए जाने के कुछ ही समय बाद घोषित किया गया,
Axios की रिपोर्ट देखें तो रक्षा विभाग ने Anthropic के साथ टकराव का इस्तेमाल दूसरी AI कंपनियों के साथ बातचीत में tone सेट करने के लिए किया,
और OpenAI ने उस दबाव के बीच रक्षा विभाग के लिए स्वीकार्य रूप में समझौता कर लिया.

आधिकारिक बयान की भाषा में भी बड़ा फर्क है.

Sam Altman ने कहा कि "रक्षा विभाग ने safety के प्रति गहरा सम्मान दिखाया",
जबकि Anthropic की तरफ़ से अंत तक "रक्षा विभाग की मांगों से हम अंतरात्मा के स्तर पर सहमत नहीं हो सकते" वाला tone रहा.

लगता है कि सिद्धांत एक जैसे होने पर भी रक्षा विभाग की प्रतिष्ठा बनाए रखने या न रखने का फर्क बड़ा था,
और नतीजे में OpenAI ने इसे स्वीकार कर लिया तो स्थिति कुछ अजीब दिखने लगी,
इसलिए लगता है कि Sam Altman ने अंत में यह जोड़कर कि "ये शर्तें सभी AI कंपनियों को समान रूप से प्रस्तावित की जाएं",
Anthropic पर हुई कार्रवाई को नरम करने का एक परोक्ष संदेश दिया.

 
lamanus 2026-03-01

एक ही स्तर का कॉन्ट्रैक्ट हो, फिर भी भरोसे या इमेज का एहसास सच में बहुत अलग लगता है.
लगता है अब मुझे gpt subscription cancel कर देनी चाहिए.

 
GN⁺ 2026-02-28
Hacker News की राय
  • यह समझ से बाहर है कि OpenAI के कर्मचारी ‘We Will Not Be Divided’ हस्ताक्षर अभियान में शामिल होने के बाद भी इस घटना के बाद वहाँ काम करते रहें
    अगर OpenAI ने भी Anthropic की माँगी गई शर्तों पर दृढ़ रुख रखा होता, तो सरकार इस कॉन्ट्रैक्ट को मंजूरी नहीं देती
    अंततः इसे एक अप्रकट सहमति के अलावा और कुछ नहीं माना जा सकता कि OpenAI वास्तव में इन red lines को लागू नहीं करेगा
    • जब Sam Altman को हटाकर फिर वापस लाया गया था, तभी मुझे लगा था कि safety-केंद्रित कर्मचारी जा चुके हैं
      अब जो लोग बचे हैं, वे ज़्यादातर stock की वजह से हैं
    • लेकिन कहा गया है कि OpenAI ने भी Anthropic जैसे सिद्धांत कॉन्ट्रैक्ट में शामिल किए
      इसमें “घरेलू बड़े पैमाने की निगरानी पर रोक” और “बल प्रयोग के लिए मानव की जिम्मेदारी” स्पष्ट रूप से लिखा गया है, और DoW(Department of War) ने भी इस पर सहमति जताई है
    • यह मामला आख़िरकार इस ओर इशारा करता है कि सभी बड़ी AI कंपनियाँ तकनीक के अपारदर्शी सैन्य उपयोग पर हस्ताक्षर करने लगेंगी
    • Trump प्रशासन के पिछले एक साल को देखें तो ऐसी अव्यवहारिक बातचीत बिल्कुल भी चौंकाने वाली नहीं है
      बेवजह राजनीतिक पूँजी खर्च करना और उससे भी बुरा सौदा करना उनका तरीका रहा है
    • मुझे लगता है कि इसके पीछे सरकार द्वारा कंपनियों को नियंत्रित करने की राजनीतिक मंशा है
      OpenAI ने Anthropic जैसी शर्तें रखी हों, फिर भी lobbying fund या PR effect की वजह से सरकार ने आँख मूँद ली हो सकती है
  • अगर यह मामला आपको अस्वीकार्य लगता है, तो अपने बटुए से राय जाहिर करनी चाहिए
    मैंने भी ChatGPT delete कर दिया, subscription cancel कर दी, और Anthropic को ज़्यादा support करने का फैसला किया है
    • मैंने भी लगभग उसी समय Claude की subscription cancel की थी, लेकिन इस घटना के बाद Claude फिर से subscribe किया
      लगा कि सिद्धांतों पर टिके रहना मायने रखता है, और अब OpenAI पर भरोसा नहीं है
    • मैंने भी अभी subscription cancel की
      Sam Altman के लिए बचा-खुचा सम्मान भी खत्म हो गया, और मानवीय लालच से दूषित AI की हकीकत बेहद घिनौनी लगती है
      OpenAI के nonprofit के रूप में शुरू होने वाले आदर्श अब पूरी तरह गायब हो चुके हैं
      सबको subscription cancel कर देनी चाहिए, और ऐसी कंपनियों व CEOs पर कड़ा tax लगना चाहिए
    • सच कहूँ तो मैं 4 महीने पहले ही Claude और Gemini पर चला गया था
      सिर्फ product quality देखकर भी लगा कि OpenAI अब पहले जैसा नहीं रहा
    • मैंने सारी बातचीत delete कर दी और account भी पूरी तरह हटा दिया
    • मैं भी इसी पक्ष में हूँ। अब OpenAI पर एक पैसा भी खर्च नहीं करूँगा
      Google क्या विकल्प चुनता है, यह देखूँगा
  • मुझे लगता है Sam Altman AI उद्योग के सबसे कम भरोसेमंद लोगों में से एक हैं
    उनका “बल प्रयोग के लिए मानव की जिम्मेदारी” जैसा वाक्य बच निकलने वाली भाषा जैसा लगता है
    • “मानव की जिम्मेदारी” का मतलब “मानव का निर्णय” नहीं होता
      यानी आखिरकार autonomous lethal weapons भी संभव हैं
      भले ही राष्ट्रपति या रक्षा विभाग को ‘जिम्मेदार’ बताया जाए, वास्तविक जवाबदेही तय करना असंभव होगा
  • सिर्फ यह देख लेना काफी है कि कोई सरकारी विभाग को “Department of War” कह रहा है
  • विदेश विभाग के एक उपमंत्री ने OpenAI और Anthropic के कॉन्ट्रैक्ट में अंतर को लेकर स्पष्टीकरण दिया है
    पहली पोस्ट में कहा गया कि OpenAI के कॉन्ट्रैक्ट में कानूनी प्रतिबंधों को आधार मानने वाले safeguards शामिल हैं
    दूसरी पोस्ट में कहा गया कि कॉन्ट्रैक्ट “सभी कानूनी उपयोग” के आधार पर किया गया, और यह लोकतांत्रिक व्यवस्था को अधिकार देने वाला दृष्टिकोण है
    कहा गया कि Anthropic ने इस तरह के समझौते को ठुकरा दिया
    • लेकिन सरकार का “हम सिर्फ कानूनी काम करेंगे” वाला वादा बिल्कुल भी आश्वस्त नहीं करता
      अतीत में गैरकानूनी कामों को कानूनी रूप देकर पेश करने के कई उदाहरण हैं, और कानून ही बदल देने की मिसालें भी हैं
      आखिरकार सिर्फ कानून के भरोसे सरकार के सत्ता दुरुपयोग को नहीं रोका जा सकता
    • उस उपमंत्री का बयान सिर्फ कार्यपालिका के भीतर का PR बयान है, कोई निष्पक्ष विश्लेषण नहीं
    • ऊपर से वह व्यक्ति असली बातचीत में शामिल भी नहीं था
      उसकी बात सही भी हो, तब भी किसी भरोसेमंद मीडिया outlet के कॉन्ट्रैक्ट का पूरा पाठ प्रकाशित करने तक यकीन करना मुश्किल है
      अगर यह सच निकला, तो OpenAI और अमेरिकी सेना का boycott करना उचित प्रतिक्रिया हो सकती है
  • CNN की रिपोर्ट के अनुसार OpenAI के पास भी Anthropic जैसी red lines हैं
    संबंधित लेख
    • लेकिन Trump प्रशासन से तार्किक सुसंगति की उम्मीद करना मुश्किल है
      शायद समस्या red lines नहीं, बल्कि यह थी कि सरकार Anthropic को राजनीतिक प्रतिद्वंद्वी मानती थी
  • शुरुआत में यह Sam Altman की वही opportunistic चाल लगी, और मैंने भी subscription cancel करने पर सोचा
    लेकिन थोड़ा निष्पक्ष होकर देखें तो असली मुद्दा यह है कि “कानूनी उपयोग” का निर्णय सरकार करेगी या AI कंपनी
    संबंधित ट्वीट देखें तो कहा गया कि Anthropic इस मानक को Claude के संविधान में सीधे शामिल करना चाहता था
    अंततः OpenAI की स्पष्ट स्थिति आने तक मैंने subscription cancel कर दी
    • दरअसल DoW, Anthropic की शर्तों से एक साल से भी ज़्यादा समय से सहमत था
      लेकिन अचानक SCR designation और DPA forced acquisition की धमकी देकर फिर से बातचीत माँगी गई
      अगर OpenAI का कॉन्ट्रैक्ट Anthropic जैसा ही है, तो यह सचमुच दोगला और अन्यायपूर्ण है
  • यह अजीब है कि OpenAI के पास Anthropic जैसी red lines होने के बावजूद कॉन्ट्रैक्ट हो गया
    • शायद Sam ने रक्षा विभाग से कहा होगा कि ये अस्थायी red lines हैं
      समय बीतने पर autonomous weapons के लिए मॉडल की अनुमति दे दी जाएगी, और surveillance features को Palantir के ज़रिए बायपास भी किया जा सकता है
    • लगता है Sam ने Anthropic को रोकने के लिए सरकार से अपने संबंधों का इस्तेमाल किया
    • Sam की बात पर भरोसा नहीं किया जा सकता
      यह Anthropic को बुरा दिखाने की रणनीतिक झूठ भी हो सकती है
    • यह कुछ ऐसा दोहरा रवैया लगता है जैसे “सिद्धांतों से सहमत हैं, लेकिन खुद पालन नहीं करेंगे”
    • अंततः असली उद्देश्य शायद “AI कॉन्ट्रैक्ट Sam की तरफ मोड़ना” था, और red lines का विवाद सिर्फ बहाना था
  • मैंने भी app delete कर दी और subscription cancel कर दी
    OpenAI अपने user base के बिना मौजूदा अतिमूल्यांकित valuation को बनाए नहीं रख सकता
    दूसरे मॉडल अब पहले से ही काफी प्रतिस्पर्धी हैं
  • अब नैतिक tech workers के इकट्ठा होने के लिए किसी समूह की ज़रूरत है
    इस तरह के भ्रष्ट आचरण से थक चुका हूँ
    • “ethical technologist” होने को आसानी से व्यक्त करने और एक-दूसरे से जुड़ने के लिए एक नए झंडे की ज़रूरत है