-
यह घटना दिखाती है कि Anthropic का Claude, Palantir के Maven सिस्टम के जरिए अमेरिकी सेना की इंटेलिजेंस एनालिसिस, target identification, और simulation में इस्तेमाल हुआ, यानी generative AI पहले ही सैन्य इंफ्रास्ट्रक्चर के बहुत भीतर तक प्रवेश कर चुका है.
-
इसकी शुरुआत 2017 में अमेरिकी रक्षा विभाग के Project Maven से हुई थी, और 2018 में Google ने आंतरिक विरोध के बाद खुद को इससे अलग कर लिया, लेकिन बाद में Palantir और Anthropic ने उस खाली जगह को भर दिया.
-
Anthropic ने 2026 की शुरुआत में रक्षा विभाग के सामने दो शर्तें रखीं: अमेरिकी नागरिकों की बड़े पैमाने पर निगरानी पर रोक और पूरी तरह autonomous weapons पर रोक, लेकिन इन्हें स्वीकार नहीं किया गया.
-
इस प्रक्रिया में Trump प्रशासन ने Anthropic को व्यावहारिक रूप से बाहर रखने की कोशिश की, और रक्षा विभाग ने कंपनी को supply chain risk के रूप में चिह्नित किया.
-
लेकिन ठीक उसी समय Claude का इस्तेमाल ईरान से जुड़े अभियानों में जारी रहा, और रक्षा विभाग के भीतर यह आकलन सामने आया कि इसका विकल्प लाने में कई महीने लग सकते हैं.
-
इसका मतलब है कि जब कोई AI मॉडल एक बार सैन्य सिस्टम में गहराई से एकीकृत हो जाता है, तो वह अब सिर्फ साधारण software नहीं रहता, बल्कि ऐसा infrastructure बन जाता है जिसे बदलना मुश्किल होता है.
-
इसी दौरान OpenAI ने Pentagon के साथ अपने contracts का विस्तार किया, और Google ने 2025 में अपने AI principles से weapons और surveillance पर रोक वाली भाषा हटा दी, जो पूरे उद्योग में मानकों के खिसकने को दिखाता है.
-
मुख्य सवाल यह है: “भले ही AI खुद ट्रिगर न दबाए, अगर वह target recommendation और priority setting में गहराई से शामिल है, तो इसे मानव नियंत्रण की सीमा के भीतर कितनी दूर तक माना जा सकता है?”
-
आखिरकार, इस मामले ने दिखाया कि शांति काल के नैतिक सिद्धांत युद्धकाल में आसानी से डगमगा सकते हैं, और वास्तविक मोलभाव की ताकत सिद्धांतों से नहीं बल्कि integration की गहराई और switching cost से आती है.
-
इसलिए सवाल अब सिर्फ “क्या AI हथियारों की अनुमति दी जानी चाहिए?” का नहीं रह गया है, बल्कि यह बन गया है कि कौन और कितनी तेजी से मानव निर्णय को AI की सिफारिशों से बदलने देगा.
अभी कोई टिप्पणी नहीं है.