3 पॉइंट द्वारा GN⁺ 2026-03-02 | 1 टिप्पणियां | WhatsApp पर शेयर करें
  • अमेरिकी रक्षा विभाग(DoD) के साथ classified environment में advanced AI systems deployment से जुड़ा एक अनुबंध किया, और अनुरोध किया कि यही शर्तें सभी AI कंपनियों पर भी समान रूप से लागू की जाएं
  • समझौते में तीन red lines स्पष्ट की गई हैं: large-scale domestic surveillance, autonomous weapons systems का direct control, और high-risk automated decision-making में OpenAI तकनीक का उपयोग नहीं किया जाएगा
  • cloud-only deployment मॉडल अपनाया गया है, OpenAI के पास safety stack पर पूरा विवेकाधिकार रहेगा, और security-cleared OpenAI कर्मी loop में शामिल रहेंगे
  • दावा किया गया कि इसमें Anthropic आदि के मौजूदा अनुबंधों की तुलना में अधिक मजबूत guardrails हैं, और edge device deployment को बाहर रखकर autonomous weapons के लिए विशेष उपयोग की संभावना रोकी गई है
  • AI कंपनियों और सरकार के बीच लोकतांत्रिक सहयोग व्यवस्था बनाने की आवश्यकता पर जोर दिया गया, और सरकार से Anthropic के साथ मतभेद सुलझाने का अनुरोध भी किया गया

अनुबंध की पृष्ठभूमि और उद्देश्य

  • अमेरिकी रक्षा विभाग के साथ classified environment में advanced AI systems deployment पर अनुबंध किया गया, और यही शर्तें सभी AI कंपनियों को भी देने का अनुरोध किया गया
  • AI तकनीक के महत्व को देखते हुए लोकतांत्रिक प्रक्रिया और AI research के बीच गहरे सहयोग की आवश्यकता पर जोर
  • अमेरिका की रक्षा करने वालों के पास सर्वोत्तम tools होने चाहिए, लेकिन साथ ही यह भी मान्यता कि यह तकनीक दुनिया के लिए नए जोखिम पैदा कर सकती है

तीन red lines

  • large-scale domestic surveillance में OpenAI तकनीक के उपयोग पर रोक
  • autonomous weapons systems के direct control में OpenAI तकनीक के उपयोग पर रोक
  • high-risk automated decision-making (जैसे social credit systems आदि) में OpenAI तकनीक के उपयोग पर रोक
  • जहां दूसरे AI labs safety guardrails को कम या हटाकर केवल usage policy पर निर्भर रहते हैं, OpenAI का कहना है कि multi-layered protection approach अधिक प्रभावी है

अनुबंध के मुख्य घटक

  • deployment architecture

    • cloud-only deployment, जिसमें OpenAI द्वारा सीधे संचालित safety stack शामिल है
    • guardrails हटाए गए models या safety training के बिना models उपलब्ध नहीं कराए जाएंगे
    • edge device deployment को बाहर रखकर autonomous lethal weapons में उपयोग की संभावना रोकी गई है
    • red lines के उल्लंघन की independent verification संभव होगी, और classifiers चलाए व अपडेट किए जा सकेंगे
  • अनुबंध की शर्तें

    • रक्षा विभाग AI systems का उपयोग लागू कानून, operational requirements, और स्थापित safety तथा oversight protocols के अनुरूप किसी भी वैध उद्देश्य के लिए कर सकता है
    • जहां कानून, regulation, या department policy मानव नियंत्रण की मांग करते हैं, वहां autonomous weapons को स्वतंत्र रूप से command करने के लिए इसका उपयोग नहीं किया जा सकता
    • DoD Directive 3000.09 (25 जनवरी 2023) के अनुसार autonomous और semi-autonomous systems में AI के उपयोग को deployment से पहले वास्तविक परिस्थितियों में कड़े validation, verification, और testing से गुजरना होगा
    • intelligence activities के दौरान personal information का प्रबंधन Fourth Amendment, National Security Act (1947), Foreign Intelligence Surveillance Act (1978), Executive Order 12333 और संबंधित रक्षा विभाग निर्देशों के अनुसार होना चाहिए
    • अमेरिकी नागरिकों की personal information पर unrestricted monitoring निषिद्ध है
    • domestic law enforcement activities में उपयोग केवल Posse Comitatus Act और अन्य लागू कानूनों द्वारा अनुमति मिलने पर ही संभव है
  • AI विशेषज्ञों की भागीदारी

    • security-cleared OpenAI engineers को सरकार की सहायता के लिए forward deployed किया जाएगा
    • security-cleared safety और alignment researchers loop में शामिल रहेंगे

FAQ के प्रमुख बिंदु

  • यह अनुबंध क्यों किया गया

    • अमेरिकी सेना को संभावित प्रतिद्वंद्वी देशों द्वारा AI तकनीक के एकीकरण के खतरे से निपटने के लिए शक्तिशाली AI models की आवश्यकता है
    • शुरुआत में यह आकलन था कि classified deployment के लिए safeguards और systems तैयार नहीं थे, इसलिए तुरंत अनुबंध नहीं किया गया; red lines का पालन सुनिश्चित करने के लिए तैयारी की गई
    • national security कार्यों में performance सुधारने के लिए मुख्य technical safeguards को हटाना सही तरीका नहीं है
    • इसका उद्देश्य रक्षा विभाग और अमेरिकी AI labs के बीच तनाव को कम करना भी है, और सरकार से अनुरोध किया गया कि वही शर्तें सभी AI labs को दे तथा विशेष रूप से Anthropic के साथ मुद्दों का समाधान करे
  • Anthropic से तुलना

    • OpenAI का कहना है कि उसका अनुबंध Anthropic के मौजूदा अनुबंध की तुलना में बेहतर assurances और अधिक जिम्मेदार safeguards देता है
    • cloud-only deployment (edge नहीं), अपने safety stack को बनाए रखना, और security-cleared OpenAI कर्मियों की भागीदारी red lines को अधिक enforceable बनाती है
    • OpenAI ने कहा कि उसे नहीं पता Anthropic यह अनुबंध क्यों नहीं कर पाया, लेकिन उम्मीद है कि Anthropic और अधिक labs इस पर विचार करेंगे
  • Anthropic को "supply chain risk" घोषित करने का प्रश्न

    • OpenAI ने कहा कि वह Anthropic को "supply chain risk" घोषित करने का विरोध करता है, और यह रुख सरकार को स्पष्ट रूप से बताया गया
  • autonomous weapons की संभावना

    • safety stack, cloud-only deployment, अनुबंध की भाषा, और मौजूदा कानूनों, regulations, तथा policies के आधार पर इसे autonomous weapons में उपयोग नहीं किया जा सकता
    • OpenAI कर्मियों की loop में भागीदारी अतिरिक्त assurance देती है
  • large-scale surveillance की संभावना

    • safety stack, अनुबंध की भाषा, और रक्षा विभाग की domestic surveillance पर कड़ी सीमा लगाने वाले मौजूदा कानूनों के आधार पर इसे large-scale surveillance में उपयोग नहीं किया जा सकता
  • safety stack के बिना deployment संभव है या नहीं

    • OpenAI के पास safety stack पर पूर्ण नियंत्रण रहेगा, और बिना safety guardrails के deployment नहीं किया जाएगा
    • जहां दूसरे AI labs model guardrails को कम कर usage policy को मुख्य सुरक्षा मानते हैं, OpenAI का कहना है कि उसका multi-layered approach अधिक प्रभावी है
  • यदि सरकार अनुबंध का उल्लंघन करे

    • सामान्य अनुबंधों की तरह, यदि दूसरी पक्ष शर्तों का उल्लंघन करता है तो अनुबंध समाप्त किया जा सकता है
  • यदि कानून या policy बदल जाए

    • अनुबंध में surveillance और autonomous weapons से जुड़े कानूनों और policies का वर्तमान मानकों के अनुसार स्पष्ट संदर्भ दिया गया है
    • भविष्य में कानून या policy बदलने पर भी system का उपयोग अनुबंध में परिलक्षित वर्तमान मानकों के अनुरूप होना चाहिए

Anthropic ब्लॉग पोस्ट के प्रति प्रतिक्रिया

  • Anthropic द्वारा सुझाई गई दो red lines—large-scale domestic surveillance और fully autonomous weapons—से OpenAI भी सहमत है, और इसके साथ automated high-risk decision-making को तीसरी red line के रूप में जोड़ा गया है
  • large-scale domestic surveillance: बातचीत की प्रक्रिया में यह स्पष्ट था कि रक्षा विभाग इसे अवैध मानता है और इस उद्देश्य से उपयोग की योजना नहीं रखता; इसलिए अनुबंध में इसे वैध उपयोग की श्रेणी से बाहर स्पष्ट रूप से दर्ज किया गया
  • fully autonomous weapons: अनुबंध में शामिल cloud deployment environment में fully autonomous weapons चल नहीं सकते, क्योंकि इसके लिए edge deployment आवश्यक है
  • इन सुरक्षा उपायों के अलावा safety stack और OpenAI तकनीकी विशेषज्ञों की loop में भागीदारी जैसी अतिरिक्त multi-layered safeguards भी मौजूद हैं

1 टिप्पणियां

 
GN⁺ 2026-03-02
Hacker News की राय
  • मेरी व्याख्या में, OpenAI और रक्षा विभाग के बीच का कॉन्ट्रैक्ट अमेरिकी नागरिकों पर बड़े पैमाने की निगरानी पर रोक लगाता हुआ दिखता है, लेकिन असल में इसका मतलब सिर्फ इतना है कि वह केवल उसी दायरे तक सीमित है जो पहले से ही कानून द्वारा प्रतिबंधित है
    यानी, इसे इस तरह भी पढ़ा जा सकता है कि रक्षा विभाग निजी कंपनियों से लोकेशन या वित्तीय लेनदेन जैसे डेटा बड़े पैमाने पर खरीदकर OpenAI के टूल्स से उनका विश्लेषण कर सकता है
    मेरी जानकारी में Anthropic के कॉन्ट्रैक्ट में ऐसा प्रावधान नहीं था
    अगर यह सच है तो यह भयावह है। लेकिन हाल में मैंने कई बार जल्दबाज़ी में निष्कर्ष निकाले हैं, इसलिए इस बार मैं फैसला रोककर रख रहा हूँ
    (संदर्भ के लिए, मैं OpenAI का पूर्व कर्मचारी हूँ और वर्तमान शेयरहोल्डर भी)

    • अब OpenAI ऐसी कंपनी लगती है जिसे नैतिकता पर बात करने का हक़ नहीं रहा
      पहले के non-profit दौर से अलग, अब उसने privacy policy दो बार बदलकर मेरा ज़्यादा डेटा इकट्ठा करना शुरू कर दिया है
      सेटिंग बंद करने की प्रक्रिया भी जटिल है, और dark patterns से भरी हुई है। डेटा डाउनलोड फीचर भी practically काम नहीं करता
    • इसका सीधा मतलब है, “हम सिर्फ उन्हीं सीमाओं का पालन करेंगे जो पहले से कानून में हैं”
      यह Dario के कहे ‘weasel language’ (टालमटोल वाली भाषा) का典型 उदाहरण है
    • आखिरकार असली समस्या Third Party Doctrine (तृतीय पक्ष सिद्धांत) है
      अगर यह सिद्धांत खत्म हो जाए तो ऐसे ज़्यादातर दुःस्वप्न जैसे परिदृश्य भी खत्म हो जाएंगे
    • लोग अक्सर भूल जाते हैं कि सरकार की NSA-शैली की निगरानी हमेशा “यह वैध है” वाले मेमो के साथ ही चलती है
    • वाक्य खुद ही बहुत उलझा हुआ है
      “Shall not be used as consistent with these authorities” जैसी अभिव्यक्ति व्याकरण के हिसाब से भी अजीब है
      लगता है वकीलों ने जानबूझकर इसे अस्पष्ट लिखा ताकि PR वाली व्याख्या की गुंजाइश बनी रहे
  • “The Department of War may use the AI System for all lawful purposes…” जैसी पंक्ति का आखिर मतलब यही है कि कानून जितनी अनुमति दे, उतने हर इस्तेमाल के लिए इसका उपयोग हो सकता है
    Anthropic ने अपने नैतिक मानदंड लागू करने की कोशिश की, लेकिन OpenAI ने सरकार की मांगें जस की तस स्वीकार कर लीं
    व्यक्तिगत रूप से मैं दोनों पक्ष समझ सकता हूँ, लेकिन सरकार ने Anthropic के साथ जो रवैया अपनाया वह दुर्भावनापूर्ण था और अमेरिका के हित में भी नहीं था

    • एक कॉन्ट्रैक्ट कहता है “Terminator मत बनाओ”, और दूसरा कहता है “अगर legal team कह दे कि ठीक है, तो Terminator भी बना सकते हो।” यह बहुत बड़ा अंतर है
    • वैध शब्द ही पूरी इमारत को संभाले हुए है
      सरकार पहले से ही खुलेआम गैरकानूनी काम करती है, तो पर्दे के पीछे क्या हो रहा होगा यह कोई नहीं जानता
      आखिरकार Anthropic का मूल रुख यही था कि सरकार पर भरोसा नहीं किया जा सकता — यह एक नैतिक स्थिति है
    • शब्दों को ध्यान से देखें, तो रक्षा विभाग मॉडल को किसी भी काम में लगा सकता है, बस वह उसे ‘वैध’ मानता हो
      नियम बदलना भी उन्हीं के हाथ में है
      Sam Altman या तो भोले हैं, या फिर हमें ऐसा सोचने पर मजबूर कर रहे हैं
    • यह “OpenAI तकनीक का उपयोग autonomous weapons systems में नहीं किया जाएगा” वाली पुरानी स्थिति से भी मेल नहीं खाता
    • युद्ध के दौरान किसी संकटग्रस्त सैनिक पर गोली चलाने की सिफारिश करने वाली स्थिति की कल्पना कीजिए
      वह साफ़ तौर पर युद्ध अपराध होगा, लेकिन उसकी ‘वैधता’ का फैसला कौन करेगा? OpenAI, रक्षा सचिव, या कोई जज?
  • “सभी वैध उद्देश्यों” जैसी अभिव्यक्ति का मतलब है कि कानून बनाने वाला खुद को सीमित नहीं कर रहा

    • बड़े पैमाने की निगरानी के मामले में संवैधानिक संशोधन तक की ज़रूरत पड़ सकती है, इसलिए यह सिर्फ कानून बदलने जितना आसान नहीं है
      लेकिन अगर कोई सरकार की मदद यह जानते हुए करे कि काम गैरकानूनी है, तो वह षड्यंत्र की श्रेणी में आ सकता है। सरकार को भले immunity मिल जाए, OpenAI को शायद न मिले
    • इसके अलावा सरकार गुप्त रूप से नियम बना और लागू भी कर सकती है
    • एक व्यंग्यात्मक प्रतिक्रिया यह भी थी: “क्या मतलब, दोषसिद्ध ठग की बात पर भरोसा नहीं किया जा सकता?”
  • मैं यह नहीं मानता कि Anthropic पूरी तरह नैतिक संत है
    ChatGPT के बारे में भी यही बात है
    लेकिन इस समय ChatGPT छोड़कर Claude इस्तेमाल करना मेरे लिए उस संदेश को दिखाने का तरीका है जो मैं देना चाहता हूँ

    • ऐसी प्लेटफ़ॉर्म बदलने की इच्छा दिखाना महत्वपूर्ण है
      अगर कंपनियों को पता हो कि विवाद होते ही यूज़र तुरंत चले जाते हैं, तो वे भी सावधान रहेंगी
    • और अभी Claude, ChatGPT से कहीं बेहतर प्रदर्शन कर रहा है
    • मैं Claude को सामान्य search replacement की तरह आज़माना चाहता हूँ। जैसे recipes या product reviews जैसे आसान सवालों के लिए यह कैसा है, यह जानने की जिज्ञासा है
    • लंबी अवधि में मुझे लगता है कि open-weight models सबसे बेहतर साबित होंगे
      Anthropic का इस बार झुके बिना खड़ा रहना काफ़ी प्रभावशाली है
      GPU की कमी तो है, लेकिन मैं भी ChatGPT छोड़कर Claude या Kimi की तरफ जाने वाला हूँ
  • आखिर में, कर्मचारी नैतिक रुख लें भी तो अगर उनके पास निर्णय लेने की शक्ति नहीं है, तो उसका कोई मतलब नहीं
    एकमात्र ताकत है ‘नौकरी छोड़ना’

    • लेकिन अगर सामूहिक इस्तीफ़ा हो जाए, तो वह जबरदस्त शक्ति बन जाता है
    • दरअसल ऐसी स्थिति रोकने के लिए ही यूनियन जैसी चीज़ें होती हैं
      अगर मुख्य इंजीनियर सामूहिक रूप से रुक जाएँ, तो Sam Altman अकेले कंपनी नहीं चला सकते
    • OpenAI कर्मचारियों के पास 2 साल पहले Sam Altman की बर्खास्तगी के समय उन्हें वापस लाने की ताकत थी
    • अगर कर्मचारी एकजुट हों तो कंपनी रोकी भी जा सकती है। लेकिन OpenAI जैसी जगह पर ऐसी एकजुटता की संस्कृति की उम्मीद करना मुश्किल है
  • OpenAI मूलतः नैतिक ज़िम्मेदारी से बचने के लिए यह कह रहा है कि “AI की नैतिक ज़िम्मेदारी कानून को सौंप देते हैं”

  • अगर 2 मिलियन डॉलर से अधिक net worth वाला OpenAI कर्मचारी अब भी वहीं है, तो उसका नैतिक कंपास खराब है
    अब यह Palantir या xAI में काम करने से अलग नहीं रह गया

    • इस पर एक तंज भरा जवाब भी था: “मैं पैसे को तकिया बनाकर रोऊँगा, बेशक नैतिक तरीके से
  • “सभी वैध उद्देश्यों के लिए इस्तेमाल हो सकता है” जैसी पंक्ति का मतलब आखिरकार यही है कि कमज़ोर regulation के सहारे रक्षा विभाग ने वही हासिल कर लिया जो वह चाहता था

  • यह ब्लॉग पोस्ट हालात को और बुरा दिखाती है
    Anthropic ने जिन विवादास्पद उपयोगों को ठुकराया था, उनके बारे में यह कोई साफ़ सीमा नहीं खींचती
    बस इतना कहती है कि “केवल वही संभव है जो वैध हो और परीक्षण किया गया हो”
    यह कुछ-कुछ वैसा लगता है जैसे 1930 के दशक में IBM ने जर्मनी को मशीनें बेचकर कहा हो, “हमें पता नहीं था”
    आखिरकार सेना जो चाहती थी वह था autonomous weapons और बड़े पैमाने की निगरानी, और इनके अलावा ऐसे उपयोग भी जो कानूनी तौर पर वैध हों, लेकिन नैतिक रूप से धुंधले क्षेत्र में आते हों