- फ़रवरी 2026 में अमेरिकी सेना ने ईरान के मिनाब प्राथमिक विद्यालय पर बमबारी की, जिसमें 175 से अधिक लोग मारे गए, और शुरुआत में Anthropic के Claude ने लक्ष्य चुना था, ऐसी गलत रिपोर्टें फैल गईं
- वास्तविक लक्ष्य-निर्धारण Palantir के Maven सिस्टम ने किया था, और पुराने सैन्य डेटा को अपडेट न करने की विफलता ने नागरिक हताहतों को जन्म दिया
- Maven ने kill chain प्रक्रिया को स्वचालित करके प्रति घंटे 1,000 लक्ष्य तय करने जितनी गति बढ़ा दी, और इस प्रक्रिया में सत्यापन और पुनर्मूल्यांकन के चरण हटा दिए गए
- ऐसी स्वचालन-प्रधान व्यवस्था ने अतीत के वियतनाम युद्ध और कोसोवो युद्ध की गलत बमबारी की घटनाओं की तरह, तकनीकी विश्वसनीयता द्वारा मानवीय निर्णय को प्रतिस्थापित करने वाली दोहराई गई संरचनात्मक समस्या को जन्म दिया
- घटना का मूल बिंदु AI की गलती नहीं, बल्कि निर्णय को हटाने वाली नौकरशाही प्रणाली और मानवीय जवाबदेही के लोप में है
ईरान के मिनाब प्राथमिक विद्यालय पर बमबारी और ‘AI ज़िम्मेदारी’ की मिथ्या धारणा
- 28 फ़रवरी 2026 को अमेरिकी सेना ने दक्षिणी ईरान के मिनाब स्थित Shajareh Tayyebeh प्राथमिक विद्यालय पर बमबारी की, जिसमें 7 से 12 वर्ष की छात्राओं सहित 175 से 180 लोगों की मौत हुई
- बमबारी के तुरंत बाद मीडिया और राजनीति का ध्यान इस बात पर केंद्रित हो गया कि क्या Anthropic के चैटबॉट Claude ने लक्ष्य चुना था
- लेकिन वास्तविक लक्ष्य-चयन प्रणाली Palantir का Maven था, और Claude का इससे कोई संबंध नहीं था
- वह स्कूल पहले कभी सैन्य सुविधा था, लेकिन सूचना अपडेट न होने की विफलता के कारण उसे अब भी सैन्य लक्ष्य के रूप में वर्गीकृत किया गया था
Maven सिस्टम की उत्पत्ति और संरचना
- Maven 2017 में अमेरिकी रक्षा विभाग की Algorithmic Warfare Cross-Functional Team से शुरू हुआ एक प्रोजेक्ट था
- शुरुआती लक्ष्य drone वीडियो विश्लेषण को स्वचालित करना था, ताकि मानव विश्लेषकों पर अत्यधिक कार्यभार कम किया जा सके
- शुरुआत में Google ने यह अनुबंध लिया था, लेकिन आंतरिक विरोध के कारण पीछे हट गया, और बाद में Palantir Technologies ने 2019 से इसका विकास संभाला
- Maven आगे चलकर satellite, signal और sensor data को एकीकृत कर लक्ष्य की पहचान से लेकर हमले के आदेश तक जोड़ने वाली targeting infrastructure में विकसित हुआ
- Palantir ने Maven को “Smart System” के रूप में पुनर्गठित किया, जिसमें real-time data fusion और automated decision-support क्षमताएँ शामिल की गईं
- Maven का interface Kanban-शैली के workflow board से बना है, जहाँ लक्ष्य चरण-दर-चरण आगे बढ़ते हुए संसाधित होते हैं
- 3 क्लिक में detection data को आधिकारिक लक्ष्य में बदला जा सकता है, और सिस्टम हमले के साधन तथा हथियारों के संयोजन की सिफारिश करता है
‘kill chain’ का संपीड़न और गति की होड़
- Maven सैन्य प्रक्रिया के उस नवीनतम संपीड़ित रूप का प्रतिनिधित्व करता है जिसे ‘kill chain’ कहा जाता है
- kill chain वह अवधारणा है जो detection से destruction तक की प्रक्रिया को व्यवस्थित करती है, और अमेरिकी सेना दशकों से इसे छोटा करने वाली तकनीकें विकसित करती रही है
- Maven निर्णय-गति को चरम स्तर तक बढ़ाने वाला सिस्टम है, जिसका 2024 तक लक्ष्य प्रति घंटे 1,000 लक्ष्य निर्णय लेना था
- यह हर 3.6 सेकंड में 1 निर्णय, या व्यक्तिगत स्तर पर हर 72 सेकंड में 1 निर्णय लेने की गति है
- 2003 के इराक युद्ध में पहले जो लक्ष्य-संबंधी काम 2,000 लोग करते थे, उसे 20 लोगों से प्रतिस्थापित किया गया
- गति में बढ़ोतरी ने विचार के लिए जगह खत्म कर दी, और सत्यापन, आपत्ति, तथा पुनर्मूल्यांकन की प्रक्रियाएँ गायब हो गईं
- परिणामस्वरूप गलत निर्णय की संभावना बढ़ी और नागरिक हताहतों का विस्तार हुआ
ऐतिहासिक पुनरावृत्ति: तकनीकी भरोसा और निर्णय का लोप
- Maven की समस्या कोई नई घटना नहीं है, बल्कि ऐतिहासिक पैटर्न की पुनरावृत्ति है जिसमें तकनीकी स्वचालन ने निर्णय का स्थान ले लिया
- 1960 के दशक के वियतनाम युद्ध में Operation Igloo White के sensor-आधारित targeting system ने खराबी के कारण झूठी सफलताओं का उत्पादन किया
- CIA ने रिपोर्ट किया कि “नष्ट किए गए ट्रकों की संख्या” वास्तविक संख्या से अधिक थी, जिससे ऐसी प्रणाली की बंद प्रकृति उजागर हुई जो स्वयं का सत्यापन नहीं कर सकती थी
- द्वितीय विश्व युद्ध की precision bombing doctrine भी दक्षता के प्रति आसक्ति में लक्ष्य के अर्थ को खो बैठी, और इसे ‘technological fanaticism’ कहा गया
- अमेरिकी वायुसेना की 1998 targeting manual ने “तथ्यों और निष्कर्षों पर आधारित तार्किक सोच” पर ज़ोर दिया था,
- लेकिन वास्तविक अभियानों में PowerPoint-आधारित ‘target package (TIP)’ बिना सत्यापन के circular reporting के ज़रिए पक्का मान लिया गया
- 1999 के कोसोवो युद्ध में चीनी दूतावास पर गलत बमबारी को ऐसी प्रक्रियागत विफलता के प्रतिनिधि उदाहरण के रूप में दर्ज किया गया
निर्णय का हटाया जाना और ‘नौकरशाही double bind’
- संगठन नियमों का पालन करते हुए भी ऐसे निर्णयकर्ता की ज़रूरत रखते हैं जो अपवादों की व्याख्या कर सके,
- लेकिन निर्णय को मान्यता देने से नियमों की सत्ता हिलती है, इसलिए वे निर्णय को संख्यात्मक और प्रक्रियात्मक बनाने की कोशिश करते हैं
- इतिहासकार Theodore Porter ने इसे “Trust in Numbers” नाम दिया
- Palantir के CEO Alex Karp ने अपनी पुस्तक The Technological Republic में
- लिखा कि “software ही helmsman है, और hardware AI की सिफारिशों को लागू करने का साधन है”
- उन्होंने मानवीय मध्यवर्ती निर्णय को हटाने वाले ‘autonomous collective action (bee swarm)’ मॉडल को आदर्श रूप में प्रस्तुत किया
- लेकिन इसका परिणाम व्याख्या की गुंजाइश के बिना पूर्ण प्रक्रियाकरण, यानी ‘fragile bureaucracy’ में होता है
- बैठक, रिपोर्ट और समीक्षा की प्रक्रियाएँ अक्षमता नहीं थीं, बल्कि वे एकमात्र बिंदु थीं जहाँ निर्णय हस्तक्षेप कर सकता था,
- लेकिन Maven ने इन्हें software workflow Kanban board से बदल दिया, जिससे निर्णय की गुंजाइश समाप्त हो गई
मिनाब स्कूल बमबारी के संरचनात्मक कारण
- target package में उस इमारत को सैन्य सुविधा के रूप में वर्गीकृत किया गया था,
- जबकि वास्तव में वह Google Maps और ईरानी commercial database में स्कूल के रूप में दर्ज थी
- लेकिन प्रति घंटे 1,000 निर्णय की गति पर किसी ने इसे खोजने या सत्यापित करने की कोशिश नहीं की
- संसदीय मंज़ूरी के बिना 2 सप्ताह में 6,000 लक्ष्यों पर हमला किया गया, जिनमें से एक यह प्राथमिक विद्यालय था
- घटना के बाद चर्चा “Claude की गलती” पर केंद्रित हो गई,
- जिससे युद्ध की वैधता, संसदीय मंज़ूरी, और युद्ध अपराध की संभावना जैसी मुख्य राजनीतिक और कानूनी ज़िम्मेदारियाँ छिप गईं
- “AI समस्या” वाला फ़्रेम मानवीय निर्णय और जवाबदेही को छिपाने वाले पलायन-स्थल की तरह काम करता है
- किसी ने kill chain को संपीड़ित किया, विचार को ‘latency’ माना,
- और प्रति घंटे 1,000 लक्ष्य निर्णय लेने वाली प्रणाली को ‘high quality’ कहा
- ये सभी निर्णय मनुष्यों ने लिए थे, और AI उनकी ज़िम्मेदारी अपने ऊपर नहीं ले सकता
अभी कोई टिप्पणी नहीं है.