- अमेरिकी रक्षा मंत्री ने Anthropic को अल्टीमेटम दिया कि वह अपनी AI तकनीक बिना किसी सैन्य प्रतिबंध के उपलब्ध कराए
- रक्षा विभाग ने धमकी दी कि अगर Anthropic ने इसे ठुकराया, तो उसे ‘supply chain risk’ कंपनी के रूप में नामित किया जाएगा
- Anthropic पहले ही सार्वजनिक रूप से कह चुका है कि वह autonomous weapons systems और surveillance उद्देश्यों के लिए उपयोग पर रोक लगाता है
- जनवरी 2026 में, Anthropic ने Palantir के साथ सहयोग के दौरान अपनी AI के वेनेज़ुएला पर हमले में इस्तेमाल होने की आशंका जताते हुए अपने सिद्धांतों की फिर पुष्टि की
- EFF ने इस बात पर ज़ोर दिया कि सरकारी दबाव के बावजूद टेक कंपनियों को निगरानी के औज़ार में नहीं बदलना चाहिए
रक्षा विभाग का दबाव और Anthropic का रुख
- अमेरिकी रक्षा मंत्री ने Anthropic पर बिना सैन्य प्रतिबंध के तकनीक उपलब्ध कराने का दबाव डाला
- अगर Anthropic मना करता है, तो उसे ‘supply chain risk’ के रूप में नामित किया जा सकता है, जिससे रक्षा विभाग के साथ उसका कारोबार रुक सकता है
- बताया गया कि यह नामांकन आम तौर पर ऐसी कंपनियों पर लागू होता है जो चीन जैसे संघीय एजेंसियों की निगरानी वाले देशों के साथ व्यापार करती हैं
- Anthropic ने अपना रुख कायम रखा कि वह autonomous weapons systems और surveillance के लिए उपयोग का समर्थन नहीं करेगा
- CEO Dario Amodei ने इसे “दो red lines जिन्हें पार नहीं किया जाना चाहिए” बताया था, और दुरुपयोग रोकने के लिए सख्त समीक्षा और safety measures की ज़रूरत पर ज़ोर दिया था
- Anthropic के AI safety core principles और Claude charter (Constitution) उसकी वेबसाइट पर सार्वजनिक हैं
विवाद की पृष्ठभूमि
- 2025 में Anthropic को गोपनीय जानकारी संभालने की अनुमति पाने वाली पहली AI कंपनी के रूप में जाना गया
- जनवरी 2026 में, Palantir के साथ सहयोग के दौरान अपनी AI के वेनेज़ुएला पर हमले में उपयोग होने के संकेत पहचानने के बाद विवाद शुरू हुआ
- इसके बाद Amodei ने surveillance और autonomous weapons के उपयोग पर रोक की फिर पुष्टि करते हुए एक पत्र जारी किया
- फिलहाल अमेरिकी सरकार कॉन्ट्रैक्ट खत्म करने की धमकी देकर Anthropic से अपनी नीति बदलने की मांग कर रही है
EFF का तर्क
- EFF ने ज़ोर देकर कहा कि सरकारी दबाव में कंपनियों को मानवाधिकार और नागरिक स्वतंत्रता के सिद्धांत नहीं छोड़ने चाहिए
- उसने कहा कि कई टेक कंपनियाँ मुनाफ़े सहित कई कारणों से अपने सिद्धांतों पर नहीं टिक पातीं, लेकिन सरकार की जबरदस्ती इसका कारण नहीं होनी चाहिए
- कॉरपोरेट ग्राहक, आम लोग और इंजीनियर उम्मीद कर रहे हैं कि Anthropic अपने सिद्धांतों पर कायम रहे
- उसने चेतावनी दी कि पूरे टेक उद्योग का निगरानी तंत्र का औज़ार बनकर रह जाना खतरनाक है
संबंधित विषय
- इसे AI और Machine Learning से जुड़े मुद्दे के रूप में वर्गीकृत किया गया है
- EFF इस मामले को AI ethics और सरकारी निगरानी की सीमाओं के सवाल के रूप में पेश करता है
1 टिप्पणियां
Hacker News की राय
आखिरकार जब तक लोग उठकर बदलाव को मजबूर नहीं करेंगे, तब तक हालात बेहतर होना मुश्किल है
फिर भी Anthropic ही एकमात्र बड़ी कंपनी लगती है जो सुरक्षा पर चर्चा कर रही है, जैसे निगरानी या युद्ध में मारक तकनीक के लिए AI का इस्तेमाल न करने की बात
लेकिन मौजूदा प्रशासन कंपनियों को अलोकतांत्रिक दिशा में धकेल रहा है, इसलिए यकीन नहीं कि Anthropic आखिर तक टिक पाएगी। इस शुक्रवार क्या होता है, यह देखने का इरादा है
यह प्रशासन टेक अरबपतियों के समर्थन से चुना गया था, और हो सकता है उन्होंने डेटा एक्सेस और सार्वजनिक फंड हासिल करने के लिए जानबूझकर यह हालात बनाए हों
उसका नतीजा ही निगरानी का और मजबूत होना है। पीड़ितों के नज़रिए से देखें तो निगरानी कम करने की बात अवास्तविक लग सकती है
आखिरकार ये निगरानी कंपनियाँ हैं, और यही समस्या का एक हिस्सा है
सरकार को जनता के लिए काम करना चाहिए, और निगरानी बढ़ाने के बजाय इसे कानून से सीमित करना चाहिए। संविधान इसी का मार्गदर्शक है
लेकिन अब Anthropic को छोड़कर सब बदल चुके हैं। Apple भी अब शायद सरकारी मांगों के खिलाफ नहीं खड़ा होगा
25 साल से Apple इस्तेमाल कर रहा हूँ, लेकिन अब भरोसा पूरी तरह टूट चुका है। उम्मीद है Anthropic कम से कम सिद्धांत और साहस बनाए रखेगी
लेकिन Anthropic भी PAC फंडिंग के ज़रिए KOSA बिल को आगे बढ़ा रही है
अगर यह कानून पास हो गया, तो गुमनाम अभिव्यक्ति की आज़ादी खत्म हो जाएगी, और हर तरह के कंटेंट के लिए चेहरा/पहचान सत्यापन से गुजरना होगा
इस लेख को देखें, तो सुरक्षा और intellectual property के नाम पर केंद्रीकरण को बढ़ावा दिया जा रहा है
मेरा मानना है कि दुनिया ऐसी होनी चाहिए जहाँ कोई भी अपने PC पर खुद open source AGI चला सके
सरकार के साथ “रचनात्मक संवाद” जैसी भाषा बार-बार दोहराना पारदर्शिता की कमी जैसा लगता है
यह San Bernardino मामला था
वे telemetry संग्रह से मुनाफ़ा कमाती हैं, और multi-tenant environment की समस्याएँ सुलझाने के नाम पर डेटा इकट्ठा करती हैं
आखिर में यूज़र मुफ्त सुविधाओं के लालच में आते हैं और vendor lock-in में फँस जाते हैं
पिछले 20 साल में जो देखा है, उसके हिसाब से ज़्यादातर मामले तयशुदा सौदे थे, और अंत में वह सिर्फ बिज़नेस था
“अगर आदेश नहीं मानते तो अपना AI मेरे सिस्टम से जोड़ो” कहना ऐसा है जैसे बैंक लुटेरा बैंककर्मी से कहे कि बंदूक उसे थमा दो
उनकी कंपनी वैल्यू का बड़ा हिस्सा पहले से ही सरकारी निगरानी सहयोग की क्षमता पर आधारित है। वे पीड़ित नहीं, बल्कि साझेदार हैं
AI की बुद्धिमत्ता बढ़ने की रफ़्तार इतनी तेज़ है कि किसी बिंदु पर इंसान नियंत्रण खो देंगे
अभी की safety research या responsible scaling policies आखिरकार सिर्फ समय खरीदती हैं, दिशा नहीं बदलतीं। यही सबसे डरावनी बात है
Steve Blank के व्याख्यान के अनुसार, 80 के दशक से पहले सिलिकॉन वैली के ज़्यादातर startup सैन्य फंडिंग से शुरू हुए थे
आज भी इंटरनेट, search, AI जैसी रणनीतिक तकनीकें नियंत्रण के दायरे में हैं। हम Facebook या Google को डेटा देते हैं, लेकिन सरकार को नहीं। मगर आखिरकार जानकारी वही है
उस समय डेवलपर संस्कृति हैकर मानसिकता, cyberpunk शैली की privacy, और open source आंदोलन पर केंद्रित थी, और यह सैन्य संस्कृति से टकराती थी