- AI रिसर्च कंपनी Anthropic ने अपनी मुख्य सुरक्षा नीति Responsible Scaling Policy(RSP) की एक प्रमुख प्रतिबद्धता वापस ले ली है
- पहले कंपनी ने वादा किया था कि यदि सुरक्षा उपाय पर्याप्त रूप से सुनिश्चित नहीं किए जा सकें, तो वह AI मॉडल training रोक देगी, लेकिन नई नीति में यह प्रावधान हटा दिया गया है
- नई RSP transparency बढ़ाने और प्रतिस्पर्धियों के स्तर के बराबर या उससे अधिक सुरक्षा प्रयास करने का वादा करती है, और यह भी कहती है कि जोखिम गंभीर होने पर development को “delay” किया जा सकता है
- कंपनी का कहना है कि यह बदलाव बाज़ार के दबाव की वजह से नहीं, बल्कि राजनीतिक और वैज्ञानिक वास्तविकताओं के जवाब में किया गया है
- विशेषज्ञों का मानना है कि यह कदम AI आपदा जोखिमों के लिए सामाजिक तैयारी की कमी का संकेत है
RSP(Responsible Scaling Policy) बदलाव की पृष्ठभूमि
- Anthropic ने 2023 में यह प्रतिज्ञा घोषित की थी कि यदि सुरक्षा उपाय पर्याप्त रूप से साबित न हों, तो वह AI सिस्टम training नहीं करेगी
- यह कंपनी की उस छवि को मजबूत करने वाली मुख्य नीति थी जिसमें बाज़ार प्रतिस्पर्धा से ऊपर सुरक्षा को रखा गया था
- हाल में कंपनी ने RSP का व्यापक पुनर्गठन किया और पूर्व-निश्चित सुरक्षा आश्वासन के बिना मॉडल रिलीज़ नहीं करेगी वाला वादा वापस ले लिया
- Jared Kaplan(Chief Science Officer) ने कहा कि “AI की प्रगति की गति इतनी तेज़ है कि एकतरफा वादे व्यावहारिक नहीं हैं”
नई नीति के मुख्य बिंदु
- नई RSP में AI सुरक्षा जोखिमों पर अधिक transparency शामिल है
- इसमें Anthropic मॉडल के safety test results को अधिक साझा करना और प्रतिस्पर्धियों के स्तर के बराबर या उससे अधिक सुरक्षा उपाय बनाए रखना या उससे आगे जाना शामिल है
- यदि कंपनी AI प्रतिस्पर्धा में आगे हो और विनाशकारी जोखिम बड़ा माना जाए, तो development को ‘delay’ किया जा सकता है
- लेकिन पहले की तरह किसी निश्चित स्तर से ऊपर के मॉडल training पर रोक लगाने वाली स्पष्ट सीमा अब नहीं रही
नीति बदलाव का औद्योगिक संदर्भ
- Anthropic हाल में Claude मॉडल और Claude Code की सफलता के कारण व्यावसायिक उपलब्धियाँ हासिल कर रही है
- फरवरी 2026 में 30 अरब डॉलर का निवेश, लगभग 3,800 अरब डॉलर का valuation, और वार्षिक revenue growth 10 गुना होने की रिपोर्ट दी गई
- कंपनी के B2B-केंद्रित business model को OpenAI की consumer-केंद्रित रणनीति की तुलना में अधिक भरोसेमंद माना जाता है
- Kaplan ने ज़ोर देकर कहा कि यह बदलाव बाज़ार दबाव का परिणाम नहीं, बल्कि राजनीतिक और वैज्ञानिक माहौल में बदलाव के अनुसार किया गया व्यावहारिक समायोजन है
नियमन और वैज्ञानिक सीमाएँ
- RSP लागू करते समय Anthropic को उम्मीद थी कि दूसरी कंपनियाँ भी इसी तरह के कदम अपनाएँगी, लेकिन ऐसा नहीं हुआ
- अमेरिका में संघीय स्तर पर AI regulation law की अनुपस्थिति, Trump प्रशासन का deregulation रुख, और अंतरराष्ट्रीय सहयोग की विफलता जारी रही
- AI evaluation science की जटिलता भी एक समस्या के रूप में सामने आई
- 2025 में Anthropic ने कहा था कि उसके मॉडल के bioterrorism में दुरुपयोग की संभावना को पूरी तरह खारिज नहीं किया जा सकता, लेकिन इसे साबित करने के लिए पर्याप्त वैज्ञानिक आधार नहीं था
आंतरिक चर्चा और निर्णय प्रक्रिया
- लगभग एक साल तक प्रबंधन ने नए माहौल के अनुरूप RSP में बदलाव के तरीकों पर चर्चा की
- मुख्य तर्क यह था कि AI safety research के लिए frontier models को सीधे विकसित करना ज़रूरी है
- Kaplan के अनुसार, CEO Dario Amodei ने यह निष्कर्ष निकाला कि “अगर प्रतिस्पर्धी development जारी रखते हैं और केवल Anthropic रुक जाए, तो यह उल्टा अधिक खतरनाक हो सकता है”
- नई RSP की प्रस्तावना में कहा गया है कि “यदि सबसे कमजोर सुरक्षा उपाय वाला developer गति तय करता है, तो ज़िम्मेदार developers अपनी safety research क्षमता खो देंगे”
बाहरी मूल्यांकन और चिंताएँ
- Chris Painter(METR policy director) ने कहा कि यह बदलाव समझ में आने वाला है, लेकिन यह AI आपदा जोखिमों के लिए सामाजिक तैयारी की कमी को उजागर करता है
- उन्होंने कहा कि Anthropic ने “risk assessment और mitigation methods तकनीकी प्रगति की गति के साथ कदम नहीं मिला पाने के कारण emergency response mode (triage mode) में शिफ्ट किया है”
- Painter ने नई नीति की पारदर्शी risk reporting और safety roadmap के प्रकाशन को सकारात्मक बताया, लेकिन
- उन्होंने चिंता जताई कि पिछली RSP का binary threshold हटने से जोखिम धीरे-धीरे बढ़ने वाला ‘boiling frog effect’ पैदा हो सकता है
आगे की योजना और सार्वजनिक प्रतिबद्धताएँ
- Anthropic का कहना है कि नई RSP पुरानी नीति के मुख्य फायदे बनाए रखती है
- पहले मॉडल रिलीज़ पर प्रतिबंध सुरक्षा mitigation विकसित करने की प्रेरणा के रूप में काम करता था
- नई नीति में भी इस प्रेरणा को बनाए रखने के लिए कंपनी नियमित रूप से ‘Frontier Safety Roadmaps’ प्रकाशित करेगी
- साथ ही, हर 3~6 महीने में ‘Risk Reports’ जारी किए जाएँगे
- इनमें मॉडल की capabilities, threat scenarios, risk mitigation measures, और overall risk level का आकलन शामिल होगा
- Kaplan ने ज़ोर देकर कहा कि “यदि प्रतिस्पर्धी विनाशकारी जोखिमों को लेकर पारदर्शी प्रतिक्रिया देते हैं, तो Anthropic भी बराबर या उससे ऊँचे स्तर के safety standards बनाए रखेगी”
अभी कोई टिप्पणी नहीं है.