- Google के अंदरूनी कर्मचारी सैन्य उपयोग वाले artificial intelligence (AI) प्रोजेक्ट्स के लिए स्पष्ट नैतिक सीमाएँ (रेडलाइन) तय करने की मांग कर रहे हैं
- उन्होंने Pentagon (अमेरिकी रक्षा विभाग) के साथ बढ़ते सहयोग पर चिंता जताई है और AI के सैन्य इस्तेमाल के दायरे को सीमित करने की जरूरत उठाई है
- इस मांग को हाल में Anthropic द्वारा सैन्य AI पर अपनी सीमाएँ तय करने के फैसले के समान रुझान के रूप में देखा जा रहा है
- कर्मचारियों का कहना है कि DeepMind समेत Google के AI डिवीजनों के लिए ऐसे स्पष्ट दिशा-निर्देश होने चाहिए, जिनसे वे हथियार विकास या युद्ध समर्थन में शामिल न हों
- टेक कंपनियों के भीतर AI ethics और national security सहयोग की सीमा को लेकर अंदरूनी बहस फिर उभर रही है
Google कर्मचारियों की सैन्य AI को लेकर चिंता
- Google कर्मचारियों ने इस बात पर चिंता जताई है कि कंपनी की AI तकनीक का इस्तेमाल सैन्य उद्देश्यों के लिए हो सकता है
- खासकर Pentagon के साथ सहयोग बढ़ने की स्थिति में, AI को घातक हथियारों या combat systems में लागू होने से रोकने के लिए आंतरिक नियमों की जरूरत पर जोर दिया गया
- कर्मचारियों का कहना है कि ethical guidelines को मजबूत किया जाए और AI विकास के गैर-सैन्य उद्देश्य स्पष्ट किए जाएँ
Anthropic से तुलना
- हाल ही में Anthropic ने सैन्य AI के लिए अपनी आंतरिक सीमाएँ घोषित की थीं
- Google कर्मचारियों की मांग उसी मिलती-जुलती दिशा में जाती दिखती है
- दोनों मामलों को AI के सैन्य दुरुपयोग की रोकथाम के लिए टेक इंडस्ट्री के भीतर उभरती आत्म-नियमन की कोशिश के रूप में देखा जा रहा है
DeepMind की भूमिका और आंतरिक चर्चा
- Google के अंतर्गत आने वाली DeepMind की Pentagon-संबंधित प्रोजेक्ट्स में संभावित भागीदारी चर्चा का विषय बनी हुई है
- कुछ कर्मचारियों का कहना है कि DeepMind को हथियार विकास या combat support systems में शामिल होने से रोकने के लिए स्पष्ट रेडलाइन तय की जानी चाहिए
टेक कंपनियों के भीतर नैतिक तनाव
- Google के भीतर चल रही यह चर्चा AI ethics और national security सहयोग के बीच तनाव को फिर सामने लाती है
- कर्मचारियों की मांग कंपनी की सामाजिक जिम्मेदारी और तकनीक के सैन्य उपयोग पर सीमा—इन दोनों सवालों को एक साथ उठाती है
पूरे उद्योग के लिए इसका मतलब
- Anthropic और Google के मामले दिखाते हैं कि AI कंपनियाँ सैन्य सहयोग को लेकर अपने आंतरिक मानदंडों को फिर से परिभाषित कर रही हैं
- आगे चलकर दूसरी टेक कंपनियों पर भी AI के सैन्य उपयोग के लिए स्पष्ट नीति बनाने का दबाव बढ़ सकता है
1 टिप्पणियां
Hacker News की राय
मकसद समझ में आता है, लेकिन यह global scale पर कैसे काम करेगा, यह सोचने वाली बात है
उदाहरण के लिए, अमेरिका के कर्मचारी ऐसे हथियार विकास से इनकार कर सकते हैं, लेकिन चीन के कर्मचारी शायद ऐसा न करें
व्यक्ति की युद्ध-विरोधी भावना और दुनिया की वास्तविकता, खासकर AI arms race के बीच संतुलन कैसे बनाया जाए, यही सवाल है
बस हर हाल में उनकी क्षमता की बराबरी करनी है, यह तर्क खतरनाक है
व्यक्तिगत युद्ध-विरोधी भावना और वास्तविकता के बीच संतुलन जानकारी की openness, स्वैच्छिक सहमति से इनकार, और हर फैसले के लिए वैधता की मांग से बनाया जाना चाहिए
वैसे Anthropic ने सभी military projects को ठुकराया नहीं है, बल्कि शर्तों के साथ भागीदारी का रास्ता अपनाया है
लेकिन अगर अमेरिका उसे हथियार बनाएगा, तो ‘इसी साल’ उसके सच में लोगों को मारने के लिए इस्तेमाल होने की संभावना ज़्यादा है
यानी अमेरिकी developers को यह ध्यान रखना चाहिए कि उसका नतीजा तुरंत की वास्तविकता हो सकता है
हाँ, अगर राजनीतिक नेता नैतिक सीमा पार करने से पहले बातचीत शुरू कर देते, तो बेहतर होता
यानी अगर बेहतरीन engineers अनैतिक projects को ठुकराएँ, तो कम कौशल वाले लोगों के लिए बुरा काम करने के मौके भी घटेंगे
जैसे white-hat developers black-hat hackers के साथ काम नहीं करते, वैसे ही नैतिक असहभागिता का एक रोकने वाला असर होता है
अगर ऐसे मामलों को सिर्फ़ self-regulation पर छोड़ना पड़े, तो फिर उम्मीद पहले ही खत्म हो चुकी है
फिर भी ऐसी नैतिक हिचक को सार्वजनिक रूप से दिखाना अपने-आप में प्रगति है
ऐसी बातचीत जमा होती है, तभी सामाजिक सहमति बनती है और बदलाव की मांग उठती है
पागल सत्ता-लोलुप लोगों के आगे घुटने टेकने से तो कहीं बेहतर
इरादा अच्छा है, लेकिन AI weaponization का Pandora’s box तो बहुत पहले ही खुल चुका है
लेकिन अगर हमेशा ऐसा ही होता, तो मानवता कई बार खत्म हो चुकी होती
हमें यह भरोसा नहीं खोना चाहिए कि संयम संभव है
क्योंकि अमेरिकी सेना ने बहुत सारे computing projects को funding दी है
baseline “सिर्फ़ घरेलू इस्तेमाल” नहीं, बल्कि सीधा “नहीं करेंगे” होना चाहिए
“Google के 100 कर्मचारियों ने विरोध किया” यह बात असरदार लगी
शायद 2027 तक यह चुपचाप निपटा दिया जाएगा
Jeff Dean के राजनीतिक बयान देखें तो वे विरोध के काफ़ी करीब लगते हैं
लेकिन पूरा management उस रुख़ का साथ देगा या नहीं, इस पर शक है
इसलिए ज़रूरी है कि ऐसा होने से पहले अभी जितना हो सके उतनी रोकथाम की जाए
New York Times लेख: यूक्रेन युद्ध और AI drones की भूमिका
मुझे लगभग बिल्कुल भरोसा नहीं कि Google अपनी सिद्धांतनिष्ठ स्थिति पर आखिर तक टिका रहेगा
दिलचस्प बात यह है कि Defense Department ने Anthropic को supply-chain risk company के रूप में चिह्नित किया,
फिर भी OpenAI को contract दिया
दोनों कंपनियों की प्रतिबंध नीतियाँ लगभग एक जैसी हैं, तो फिर ऐसा फर्क क्यों किया गया, यह सवाल है
हैरानी होती है कि यह चर्चा मानो पहले ही भुला दी गई
The Guardian लेख के मुताबिक
Google और OpenAI दोनों पहले से ही defense contracts कर चुके हैं
अगर आप इससे सहमत नहीं हैं, तो कंपनी छोड़ना सही होगा, लेकिन वास्तव में ऐसा करने वाले लोग बहुत कम होंगे