1 पॉइंट द्वारा GN⁺ 2026-03-01 | 5 टिप्पणियां | WhatsApp पर शेयर करें
  • OpenAI ने Department of War के साथ classified environment में advanced AI systems deploy करने का अनुबंध किया है, और अनुरोध किया है कि इसे सभी AI कंपनियों पर समान रूप से लागू किया जाए
  • OpenAI ने कहा कि इस अनुबंध में मौजूदा classified AI deployments की तुलना में ज़्यादा safety guardrails शामिल हैं
  • OpenAI ने स्पष्ट red lines बताईं कि उसकी तकनीक का उपयोग बड़े पैमाने पर घरेलू निगरानी, autonomous weapons command, high-risk automated decision-making के लिए नहीं किया जाएगा
  • safety stack पर पूर्ण discretion बनाए रखना, cloud-based deployment, security clearance प्राप्त कर्मियों की भागीदारी, और मज़बूत contractual protections लागू करना शामिल है
  • OpenAI ने Department of War को स्पष्ट रूप से बताया कि Anthropic को supply chain risk के रूप में नामित नहीं किया जाना चाहिए

Department of War के साथ अनुबंध

  • OpenAI ने Department of War के साथ advanced AI systems को classified environment में deploy करने का अनुबंध किया
    • उसने अनुरोध किया कि यह deployment सभी AI कंपनियों को समान रूप से उपलब्ध कराया जाए
  • OpenAI ने कहा कि इस अनुबंध में मौजूदा classified AI deployment contracts की तुलना में ज़्यादा safety safeguards शामिल हैं

Red lines बरकरार

  • OpenAI की तकनीक का उपयोग बड़े पैमाने पर घरेलू निगरानी के लिए नहीं किया जाएगा
  • OpenAI की तकनीक का उपयोग autonomous weapons systems command के लिए नहीं किया जाएगा
  • OpenAI की तकनीक का उपयोग high-risk automated decision-making systems (जैसे: social credit) में नहीं किया जाएगा

बहु-स्तरीय सुरक्षा संरचना

  • यह उन कुछ AI labs से अलग है जिन्होंने national security deployments में usage policy-centered protections को कम किया या हटा दिया
  • OpenAI ने विस्तारित multi-layered approach लागू की
    • safety stack पर पूर्ण discretion बनाए रखना
    • cloud-based deployment model बनाए रखना
    • security clearance प्राप्त OpenAI personnel की भागीदारी वाली संरचना
    • मज़बूत contractual protections शामिल करना
    • मौजूदा अमेरिकी कानूनों के protections के साथ समानांतर रूप से लागू करना

Anthropic पर रुख

  • OpenAI ने Anthropic को supply chain risk के रूप में नामित करने का विरोध किया
  • यह रुख Department of War को स्पष्ट रूप से बताया गया

5 टिप्पणियां

 
kayws426 2026-03-01

लगता है कि इससे जुड़ी घटनाओं की एक टाइमलाइन तैयार करने की ज़रूरत है। यह भी कहा जा रहा है कि OpenAI के साथ contract negotiations चल रही थीं, है न?

 
kentakang 2026-03-01

यह पहली बार है कि मैंने "कोई सामग्री नहीं" वाला सारांश त्रुटि देखी है..

 
xguru 2026-03-01

लगता है कि ऐसे मामले इसलिए हो रहे हैं क्योंकि x के लिए crawl करना थोड़ा मुश्किल हो गया है। हम इसे बेहतर बनाने की कोशिश करेंगे।

 
kentakang 2026-03-01

मैं हमेशा आपकी सामग्री ध्यान से पढ़ता/पढ़ती हूँ, धन्यवाद।

 
GN⁺ 2026-03-01
Hacker News राय
  • असली मुद्दा OpenAI कॉन्ट्रैक्ट की वास्तविक भाषा और Altman जो कह रहे हैं, उनके बीच का फर्क है
    कॉन्ट्रैक्ट में लिखा है कि “जहाँ कानून या policy मानव नियंत्रण की मांग करते हैं, वहाँ इसे autonomous weapons operation में इस्तेमाल नहीं किया जाएगा”
    यानी अगर रक्षा विभाग यह तय कर दे कि “मानव नियंत्रण की ज़रूरत नहीं है”, तो यह वैसे ही संभव हो जाता है
    Anthropic ने “mass surveillance बिल्कुल नहीं” जैसी पूर्ण निषेध-रेखा रखी, जबकि OpenAI ने इसे “अगर कानून अनुमति दे तो संभव” जैसी नरमी के साथ रखा
    ऐसा कॉन्ट्रैक्ट करने के बाद Anthropic का समर्थन करने का दिखावा करना इस इंडस्ट्री में कम ही दिखने वाला PR शो लगता है

    • मुझे लगता है Altman का यह व्यवहार पहले की बर्खास्तगी वाली घटना में भी दिखा था, एक टिपिकल पैटर्न की तरह
    • इसे “अमेरिकियों पर mass surveillance प्रतिबंधित है” जैसे शब्दों में रखा गया, लेकिन आखिरकार व्याख्या की गुंजाइश बहुत ज़्यादा है
  • X thread में OpenAI ने दावा किया कि “रक्षा विभाग के साथ हमारा कॉन्ट्रैक्ट हमारी redline का पालन करता है”
    लेकिन NPR लेख के अनुसार Anthropic को वही मानक बनाए रखने की वजह से कॉन्ट्रैक्ट से बाहर कर दिया गया, और OpenAI ने पैसा ले लिया

    • Anthropic ने “हम यह रेखा पार नहीं करेंगे” जैसा नैतिक फैसला लिया, लेकिन OpenAI ने “रक्षा विभाग जैसा चाहे वैसा करे” जैसा रुख अपनाया
      इसलिए उसे कॉन्ट्रैक्ट मिला
    • Anthropic ने कॉन्ट्रैक्ट में प्रतिबंधात्मक clauses डालने की कोशिश की, लेकिन OpenAI ने कहा “हमारे अपने guardrail काफ़ी हैं”
      लेकिन यह guardrail नागरिक निगरानी को रोक पाएँगे या नहीं, इस पर संदेह है
    • OpenAI की आधिकारिक पोस्ट देखने पर redline, Anthropic की redline से मेल नहीं खाती
    • यह भी संभव है कि सरकार ने Anthropic को सिर्फ बदले की भावना से बाहर किया हो
    • मुझे लगता है Altman बिना ज़मीर का इंसान है, और उसकी बात पर भरोसा करने की कोई वजह नहीं है
  • Any Lawful Use” clause की समस्या यह है कि रक्षा विभाग ‘lawful’ की परिभाषा अपनी मर्ज़ी से तय कर सकता है
    कोई internal lawyer एक memo लिख दे, और वही तुरंत वैध बन जाता है

    • अगर किसी को लगा कि 9/11 के बाद के कानूनी मसले LLM के आने से गायब हो गए, तो यह भोलेपन की बात है
      सरकारी अधिकारों के दुरुपयोग को वोट और संस्थागत सुधार से ठीक करना होगा
    • वास्तव में ऐसा कई बार हो चुका है (उदाहरण: John Yoo का torture को वैध ठहराने वाला memo)
      सिस्टम इस तरह डिज़ाइन नहीं किया गया था, लेकिन हक़ीक़त अलग है
    • ऐसे ज़्यादातर काम गुप्त रूप से होते हैं, और बाद में सामने आने पर भी “देशभक्त” कहकर बचा लिया जाता है
    • आखिर में कुछ साल बाद एक जाँच-रिपोर्ट आती है और सब भूल जाते हैं, यह बार-बार दोहराया गया परिदृश्य है
    • कानूनी चुनौती उठे तब भी Patriot Act जैसे क़ानूनों के पीछे छिपा जा सकता है
  • आखिरकार नए नाम वाला “Department of War” सिर्फ टैक्स का पैसा बर्बाद करेगा और बेकार की तकनीक महँगे दाम पर खरीदेगा
    नागरिकों के लिए अफ़सोस होता है

  • Anthropic और OpenAI के बीच फ़र्क यह है कि Anthropic तकनीकी रूप से सीमाएँ लागू करवाना चाहता था, जबकि OpenAI ने सिर्फ इतना मौखिक वादा किया कि “उम्मीद है सरकार इसका उल्लंघन नहीं करेगी”
    सरकार ने दूसरे विकल्प को चुना, यह स्वाभाविक है

    • OpenAI के कॉन्ट्रैक्ट के पूर्ण पाठ में “सभी वैध उद्देश्यों” वाली भाषा सबसे अहम है
      यानी यह गुंजाइश छोड़ी गई है कि “अगर वैध हो, तो mass surveillance या autonomous lethal weapons भी संभव हैं”
    • OpenAI खुद को सरकार द्वारा बनाए गए कानूनों की सीमा के भीतर ही सीमित करना चाहता है, जबकि Anthropic अपने मानकों के आधार पर रेखा खींचना चाहता था
    • असल में OpenAI ने कोई ठोस गारंटी माँगी ही नहीं, और Altman सिर्फ लालच से प्रेरित व्यक्ति लगता है
  • स्वायत्त घातक निर्णय लेने वाली AI बहुत ख़तरनाक सोच है
    सिर्फ superintelligence की वजह से नहीं, बल्कि इसलिए कि छोटे models से भी कोई ट्रैक न किए जा सकने वाले हथियार बना सकता है
    मौजूदा models ने मानव जीवन के प्रति सकारात्मक रुख सीखा है, लेकिन अगर उसे हटा दिया जाए तो यह राक्षसी सिस्टम बन जाता है

    • लेकिन LLM मानव जीवन को ‘समझ’ या ‘मूल्यवान’ नहीं मान सकता
      वह सिर्फ probabilistic token predictor है
    • वास्तव में AI पहले से 20 साल से हत्या-संबंधी फैसलों में शामिल रहा है
      उदाहरण के लिए, कोई program मारने के लक्ष्यों की सूची बनाता था और इंसान drone चलाता था
    • model को बहकाकर उससे घातक आदेश दिलवाना भी आसानी से संभव है
    • यह मानना कि LLM जीवन का सम्मान करता है, सिर्फ एक भ्रम है
  • लोग शायद भूल रहे हैं कि Anthropic ने Palantir के साथ साझेदारी की थी
    यह बात सामने आने पर बस PR से उसे ढक दिया गया

    • इस तरह का दावा प्रचार जैसा दिखने वाला लेख लगता है, इसलिए भरोसा करना मुश्किल है
    • मेरी समझ में Palantir का Anthropic model सैन्य फील्ड के लिए private system में इस्तेमाल हुआ था
    • लगता है लोगों को ठीक से पता नहीं कि Palantir वास्तव में क्या करता है
  • लगता है OpenAI इस विवाद में ग्राहक खो रहा है, इसलिए उसने image management पोस्ट डाली है

  • Anthropic सरकार द्वारा AI regulation कड़ा किए जाने के पक्ष में था, और अब जैसे उसी का नतीजा उसे खुद भुगतना पड़ रहा है

  • यह मामला ऐसा लगता है कि OpenAI कमज़ोर नैतिक मानकों पर हो रही आलोचना को PR से संभालने की कोशिश कर रहा है

    • समस्या यह भी है कि दोनों कंपनियों के नैतिक मानक सिर्फ सीमाओं के भीतर लागू होते हैं
      विदेशों में अब भी अनैतिक इस्तेमाल संभव है