- फ़रवरी 2026 में अमेरिकी सेना ने ईरान के मिनाब प्राथमिक विद्यालय पर बमबारी की, जिसमें 175 से अधिक लोग मारे गए, और शुरुआत में Anthropic के Claude ने लक्ष्य चुना था, ऐसी गलत रिपोर्टें फैल गईं
- वास्तविक लक्ष्य-निर्धारण Palantir के Maven सिस्टम ने किया था, और पुराने सैन्य डेटा को अपडेट न करने की विफलता ने नागरिक हताहतों को जन्म दिया
- Maven ने kill chain प्रक्रिया को स्वचालित करके प्रति घंटे 1,000 लक्ष्य तय करने जितनी गति बढ़ा दी, और इस प्रक्रिया में सत्यापन और पुनर्मूल्यांकन के चरण हटा दिए गए
- ऐसी स्वचालन-प्रधान व्यवस्था ने अतीत के वियतनाम युद्ध और कोसोवो युद्ध की गलत बमबारी की घटनाओं की तरह, तकनीकी विश्वसनीयता द्वारा मानवीय निर्णय को प्रतिस्थापित करने वाली दोहराई गई संरचनात्मक समस्या को जन्म दिया
- घटना का मूल बिंदु AI की गलती नहीं, बल्कि निर्णय को हटाने वाली नौकरशाही प्रणाली और मानवीय जवाबदेही के लोप में है
ईरान के मिनाब प्राथमिक विद्यालय पर बमबारी और ‘AI ज़िम्मेदारी’ की मिथ्या धारणा
- 28 फ़रवरी 2026 को अमेरिकी सेना ने दक्षिणी ईरान के मिनाब स्थित Shajareh Tayyebeh प्राथमिक विद्यालय पर बमबारी की, जिसमें 7 से 12 वर्ष की छात्राओं सहित 175 से 180 लोगों की मौत हुई
- बमबारी के तुरंत बाद मीडिया और राजनीति का ध्यान इस बात पर केंद्रित हो गया कि क्या Anthropic के चैटबॉट Claude ने लक्ष्य चुना था
- लेकिन वास्तविक लक्ष्य-चयन प्रणाली Palantir का Maven था, और Claude का इससे कोई संबंध नहीं था
- वह स्कूल पहले कभी सैन्य सुविधा था, लेकिन सूचना अपडेट न होने की विफलता के कारण उसे अब भी सैन्य लक्ष्य के रूप में वर्गीकृत किया गया था
Maven सिस्टम की उत्पत्ति और संरचना
- Maven 2017 में अमेरिकी रक्षा विभाग की Algorithmic Warfare Cross-Functional Team से शुरू हुआ एक प्रोजेक्ट था
- शुरुआती लक्ष्य drone वीडियो विश्लेषण को स्वचालित करना था, ताकि मानव विश्लेषकों पर अत्यधिक कार्यभार कम किया जा सके
- शुरुआत में Google ने यह अनुबंध लिया था, लेकिन आंतरिक विरोध के कारण पीछे हट गया, और बाद में Palantir Technologies ने 2019 से इसका विकास संभाला
- Maven आगे चलकर satellite, signal और sensor data को एकीकृत कर लक्ष्य की पहचान से लेकर हमले के आदेश तक जोड़ने वाली targeting infrastructure में विकसित हुआ
- Palantir ने Maven को “Smart System” के रूप में पुनर्गठित किया, जिसमें real-time data fusion और automated decision-support क्षमताएँ शामिल की गईं
- Maven का interface Kanban-शैली के workflow board से बना है, जहाँ लक्ष्य चरण-दर-चरण आगे बढ़ते हुए संसाधित होते हैं
- 3 क्लिक में detection data को आधिकारिक लक्ष्य में बदला जा सकता है, और सिस्टम हमले के साधन तथा हथियारों के संयोजन की सिफारिश करता है
‘kill chain’ का संपीड़न और गति की होड़
- Maven सैन्य प्रक्रिया के उस नवीनतम संपीड़ित रूप का प्रतिनिधित्व करता है जिसे ‘kill chain’ कहा जाता है
- kill chain वह अवधारणा है जो detection से destruction तक की प्रक्रिया को व्यवस्थित करती है, और अमेरिकी सेना दशकों से इसे छोटा करने वाली तकनीकें विकसित करती रही है
- Maven निर्णय-गति को चरम स्तर तक बढ़ाने वाला सिस्टम है, जिसका 2024 तक लक्ष्य प्रति घंटे 1,000 लक्ष्य निर्णय लेना था
- यह हर 3.6 सेकंड में 1 निर्णय, या व्यक्तिगत स्तर पर हर 72 सेकंड में 1 निर्णय लेने की गति है
- 2003 के इराक युद्ध में पहले जो लक्ष्य-संबंधी काम 2,000 लोग करते थे, उसे 20 लोगों से प्रतिस्थापित किया गया
- गति में बढ़ोतरी ने विचार के लिए जगह खत्म कर दी, और सत्यापन, आपत्ति, तथा पुनर्मूल्यांकन की प्रक्रियाएँ गायब हो गईं
- परिणामस्वरूप गलत निर्णय की संभावना बढ़ी और नागरिक हताहतों का विस्तार हुआ
ऐतिहासिक पुनरावृत्ति: तकनीकी भरोसा और निर्णय का लोप
- Maven की समस्या कोई नई घटना नहीं है, बल्कि ऐतिहासिक पैटर्न की पुनरावृत्ति है जिसमें तकनीकी स्वचालन ने निर्णय का स्थान ले लिया
- 1960 के दशक के वियतनाम युद्ध में Operation Igloo White के sensor-आधारित targeting system ने खराबी के कारण झूठी सफलताओं का उत्पादन किया
- CIA ने रिपोर्ट किया कि “नष्ट किए गए ट्रकों की संख्या” वास्तविक संख्या से अधिक थी, जिससे ऐसी प्रणाली की बंद प्रकृति उजागर हुई जो स्वयं का सत्यापन नहीं कर सकती थी
- द्वितीय विश्व युद्ध की precision bombing doctrine भी दक्षता के प्रति आसक्ति में लक्ष्य के अर्थ को खो बैठी, और इसे ‘technological fanaticism’ कहा गया
- अमेरिकी वायुसेना की 1998 targeting manual ने “तथ्यों और निष्कर्षों पर आधारित तार्किक सोच” पर ज़ोर दिया था,
- लेकिन वास्तविक अभियानों में PowerPoint-आधारित ‘target package (TIP)’ बिना सत्यापन के circular reporting के ज़रिए पक्का मान लिया गया
- 1999 के कोसोवो युद्ध में चीनी दूतावास पर गलत बमबारी को ऐसी प्रक्रियागत विफलता के प्रतिनिधि उदाहरण के रूप में दर्ज किया गया
निर्णय का हटाया जाना और ‘नौकरशाही double bind’
- संगठन नियमों का पालन करते हुए भी ऐसे निर्णयकर्ता की ज़रूरत रखते हैं जो अपवादों की व्याख्या कर सके,
- लेकिन निर्णय को मान्यता देने से नियमों की सत्ता हिलती है, इसलिए वे निर्णय को संख्यात्मक और प्रक्रियात्मक बनाने की कोशिश करते हैं
- इतिहासकार Theodore Porter ने इसे “Trust in Numbers” नाम दिया
- Palantir के CEO Alex Karp ने अपनी पुस्तक The Technological Republic में
- लिखा कि “software ही helmsman है, और hardware AI की सिफारिशों को लागू करने का साधन है”
- उन्होंने मानवीय मध्यवर्ती निर्णय को हटाने वाले ‘autonomous collective action (bee swarm)’ मॉडल को आदर्श रूप में प्रस्तुत किया
- लेकिन इसका परिणाम व्याख्या की गुंजाइश के बिना पूर्ण प्रक्रियाकरण, यानी ‘fragile bureaucracy’ में होता है
- बैठक, रिपोर्ट और समीक्षा की प्रक्रियाएँ अक्षमता नहीं थीं, बल्कि वे एकमात्र बिंदु थीं जहाँ निर्णय हस्तक्षेप कर सकता था,
- लेकिन Maven ने इन्हें software workflow Kanban board से बदल दिया, जिससे निर्णय की गुंजाइश समाप्त हो गई
मिनाब स्कूल बमबारी के संरचनात्मक कारण
- target package में उस इमारत को सैन्य सुविधा के रूप में वर्गीकृत किया गया था,
- जबकि वास्तव में वह Google Maps और ईरानी commercial database में स्कूल के रूप में दर्ज थी
- लेकिन प्रति घंटे 1,000 निर्णय की गति पर किसी ने इसे खोजने या सत्यापित करने की कोशिश नहीं की
- संसदीय मंज़ूरी के बिना 2 सप्ताह में 6,000 लक्ष्यों पर हमला किया गया, जिनमें से एक यह प्राथमिक विद्यालय था
- घटना के बाद चर्चा “Claude की गलती” पर केंद्रित हो गई,
- जिससे युद्ध की वैधता, संसदीय मंज़ूरी, और युद्ध अपराध की संभावना जैसी मुख्य राजनीतिक और कानूनी ज़िम्मेदारियाँ छिप गईं
- “AI समस्या” वाला फ़्रेम मानवीय निर्णय और जवाबदेही को छिपाने वाले पलायन-स्थल की तरह काम करता है
- किसी ने kill chain को संपीड़ित किया, विचार को ‘latency’ माना,
- और प्रति घंटे 1,000 लक्ष्य निर्णय लेने वाली प्रणाली को ‘high quality’ कहा
- ये सभी निर्णय मनुष्यों ने लिए थे, और AI उनकी ज़िम्मेदारी अपने ऊपर नहीं ले सकता
1 टिप्पणियां
Hacker News की राय
Maven ऐसा टूल है जिसे युद्ध के बीच इस्तेमाल करने के लिए बनाया गया था
जब दोनों पक्ष लड़ाई में हों, तो कुछ मिनट बचना सीधे जान बचने में बदल सकता है
लेकिन यह हमला लड़ाई के दौरान नहीं बल्कि अचानक किया गया हमला था। ऐसी स्थिति में, जहाँ कोई जवाबी हमला नहीं हो रहा था, समय बचाने से किसी की जान नहीं बची
लक्ष्य की पहचान कहीं अधिक सावधानी से की जानी चाहिए थी, और इंसानों द्वारा कई बार सत्यापन होना चाहिए था। वह इमारत साफ़ तौर पर एक स्कूल थी, और उसकी वेबसाइट भी थी
सिर्फ़ तीन क्लिक में अगले लक्ष्य पर बढ़ जाना साफ़ मानवीय लापरवाही थी। ऐसी गलती रोकने के लिए पर्याप्त समय था
चाहे टूल पर अति-भरोसा रहा हो या नागरिक जीवन के प्रति उपेक्षा, नतीजा छोटी बच्चियों की मौत था
उम्मीद है कि यह फ़ैसला लेने वाले लोगों की ज़रूर जवाबदेही तय होगी
अमेरिका ने राज्य को अस्थिर करने के उद्देश्य से युद्ध शुरू किया, और उस प्रक्रिया में नागरिक हताहतों को नज़रअंदाज़ किया
यह वैसा ही है जैसे मैं किसी के घर में आग लगा दूँ और बाद में कहूँ, “मुझे नहीं पता था कि वह किंडरगार्टन था”
पहले ‘War on Terror’ के दौर में भी शादी समारोहों पर बमबारी कर उसे “गलती” बताने के कई मामले थे
लेकिन ऐसी ऑनलाइन जानकारी लक्ष्य चयन का भरोसेमंद आधार नहीं हो सकती
पहचान उपग्रह अवलोकन जैसी प्रत्यक्ष जानकारी से होनी चाहिए थी। स्कूल में गतिविधि का एक नियमित पैटर्न होता है, और वह सैन्य ठिकाने से अलग दिखता
शायद पूरे बेस को एक इकाई मान लिया गया, और स्कूल की इमारत को बेस का हिस्सा समझ लिया गया
आदेश जारी होने के बाद समय का दबाव भी रहा होगा। फिर भी, यह एक त्रासदी है
अगर हज़ारों sorties में केवल एक बार ग़लत बमबारी हुई, तो त्रुटि दर कम कही जा सकती है, लेकिन यह मामला साफ़ विफलता है
फिर भी, “पर्याप्त समीक्षा नहीं हुई” वाला दावा कमज़ोर आधार पर टिका है। अंदरूनी सूत्रों ने वास्तव में कहा कि इस लक्ष्य को हटाने की सूची से बाहर रहना चाहिए था
इस अचानक हमले की प्रकृति के कारण पूरी ज़िम्मेदारी योजनाकारों, मंज़ूरी देने वालों और उसे अंजाम देने वालों पर है
“बच्चे स्कूल में क्यों थे?” जैसा सवाल अज्ञानता से भरा है। ईरान का वीकेंड सिस्टम अलग है, और कोई अचानक हमले की भविष्यवाणी नहीं कर सकता था
जितनी आसानी से lethal force का इस्तेमाल होता है, उतने ही निर्दोष पीड़ित बढ़ते हैं
WhatsApp metadata से वयस्क पुरुषों की लोकेशन ट्रैक कर हमला करने के इज़राइली उदाहरण भी हैं
यह तरीका 20 साल पहले से अलग नहीं है, और किसी दिन ऐसा बम हमारे घर पर भी गिर सकता है
कुछ हफ़्ते पहले भी ऐसा ही हुआ था
अमेरिका और इज़राइल ने ईरानी पुलिस सुविधा पर हमला करते हुए, नाम में “Police” वाला तेहरान का एक पार्क (Police Park) बम से उड़ा दिया
वह वास्तव में सिर्फ़ एक सामान्य पार्क था
संबंधित वीडियो, अतिरिक्त स्रोत
अगर AI से कहा जाए, “तेहरान की 100 पुलिस सुविधाओं की सूची बनाओ,” तो ऐसा नतीजा आ सकता है। मज़बूत संकेत हैं कि लक्ष्य चयन में AI का उपयोग हुआ
अमेरिका एक नैतिक और आचारिक रूप से दिवालिया देश है, इसलिए ऐसी घटनाएँ बार-बार होती हैं
Amiriyah shelter bombing इसका एक उदाहरण है
लेख में पहली बार यह बात सामने आई कि “Anthropic के Claude ने स्कूल को लक्ष्य के रूप में चुना”
अब तक ज़्यादातर रिपोर्टों में वजह AI के इस्तेमाल से ज़्यादा पुरानी प्रक्रियाएँ और खुफिया जानकारी की ग़लतियाँ बताई गई थीं
Claude को Amazon Bedrock पर चलाया जा सकता है, और इस स्थिति में यह Anthropic द्वारा सीधे संचालित API नहीं होता बल्कि ग्राहक के डेटा सेंटर के भीतर मॉडल चल रहा होता है
Palantir जैसे vendor अपनी पसंद का कोई भी मॉडल चुन सकते हैं, और Claude को Bedrock के ज़रिए इस्तेमाल किया गया हो सकता है
ऐसे कॉन्ट्रैक्ट्स में Anthropic के पास telemetry तक पहुँच नहीं होती, इसलिए वास्तविक उपयोग के तरीके को साबित नहीं किया जा सकता
अंततः “Claude इस्तेमाल हुआ” कहना तकनीकी रूप से सही भी हो सकता है और ग़लत भी — यह एक red herring है
यह भी उल्लेखनीय है कि लेख के लेखक ने पहले अपने Substack लेख में इस विषय को उठाया था
क्या सचमुच किसी ने माना कि यह AI की गलती थी?
आधुनिक सेनाओं में LLM अक्सर ज़िम्मेदारी से बचने के औज़ार की तरह इस्तेमाल होते हैं
अगर लक्ष्य स्पष्ट होते, तो एक दस्तावेज़ित सूची पहले से तैयार रहती
लेकिन अभी रवैया ऐसा है कि “जितने ज़्यादा बम गिरा सकते हो गिराओ, कंप्यूटर अपने-आप देख लेगा”
रणनीतिक लक्ष्य से ज़्यादा हत्या खुद प्राथमिकता बन गई है
लेख दिलचस्प था
“अमेरिकी सेना अवलोकन और विनाश के बीच की दूरी कम करने की कोशिश करती रही है” यह वाक्य थोड़ा पक्षपाती लगता है, लेकिन यह अच्छी तरह दिखाता है कि war fog कितना घना हो चुका है
शुरुआती कुछ पैराग्राफ़ तो काफ़ी ताज़गीभरे लगे
यह बात प्रभावशाली लगी कि “AI-washing अब सिर्फ़ छँटनी नहीं बल्कि युद्ध में भी इस्तेमाल हो रही है”
पहले ईश्वर, फिर प्रकृति, और अब AI
इंसान के भीतर अपने कर्मों की ज़िम्मेदारी से बचने की बुनियादी समस्या है
शायद पूरा औद्योगीकरण और कंप्यूटर युग उसी ज़िम्मेदारी को हमेशा के लिए मिटाने की कोशिश जैसा दिखता है
आख़िरकार, किसी भी हाल में अमेरिका के युद्ध अपराध का बचाव नहीं किया जा सकता
यह हक़ीक़त कि वह ठीक से माफ़ी तक नहीं माँग सकता, शायद आगे चलकर वह इतिहास का एक मोड़ साबित हो जिसे हम पीछे मुड़कर देखेंगे