- Lisanne Bainbridge के 1983 के पेपर “The ironies of automation” के दूसरे अध्याय ‘Approaches to solutions’ को केंद्र में रखकर, AI-आधारित ऑटोमेशन पर लागू होने वाली अंतर्दृष्टियों की पड़ताल
- जब इंसान AI एजेंट द्वारा किए जाने वाले काम की निगरानी करता है, तो तेज़ निर्णय और तनावपूर्ण परिस्थितियों में संज्ञानात्मक सीमाएँ industrial control systems जैसी जोखिम संरचना बनाती हैं
- मौजूदा LLM-आधारित agent UI/UX त्रुटि पहचान के लिए उपयुक्त नहीं है, और industrial control design principles से सीखने की ज़रूरत है
- training paradox के कारण, ऑटोमेशन जितना अधिक सफल होता है, मानव पर्यवेक्षक के लिए निरंतर और महँगी training उतनी ही अधिक आवश्यक हो जाती है
- AI एजेंट के युग में साधारण निगरानी से आगे बढ़कर ‘leadership capability’ की आवश्यकता होती है, और यह मानव-मशीन सहयोग की एक नई संरचना की ओर ले जाता है
AI ऑटोमेशन और मानवीय निर्णय की सीमाएँ
- industrial control systems में कुछ ही सेकंड के भीतर प्रतिक्रिया देनी पड़ती है, जबकि white-collar work automation में तात्कालिक जोखिम कम हो सकता है, फिर भी तेज़ निर्णय और हस्तक्षेप की आवश्यकता बनी रहती है
- जब AI अतिमानवीय गति से परिणाम उत्पन्न करता है, तो इंसानों को उन्हें समझने और सत्यापित करने के लिए उसी स्तर के cognitive support की आवश्यकता होती है
- कंपनियों की efficiency-केंद्रित संस्कृति और stressful environment इंसानों की विश्लेषण क्षमता को कमज़ोर करते हैं, जिससे त्रुटि पहचान और कठिन हो जाती है
- AI परिणामों की त्रुटियाँ security incidents जैसे गंभीर परिणामों तक ले जा सकती हैं, इसलिए industrial control के समान स्तर की monitoring system design की आवश्यकता है
सबसे खराब UI समस्या
- Bainbridge का कहना है कि “कम संभावना वाली घटनाओं को तेज़ी से पहचानना हो तो कृत्रिम सहायता की ज़रूरत होती है”
- इसका अर्थ है कि monitoring fatigue की समस्या को कम करने के लिए चेतावनी प्रणाली को मज़बूत करना आवश्यक है
- मौजूदा AI agent fleet management तरीका ऐसा अप्रभावी interface है जिसमें इंसानों को सैकड़ों पंक्तियों की योजनाएँ देखनी पड़ती हैं
- त्रुटियाँ दुर्लभ हो सकती हैं, लेकिन घातक भी हो सकती हैं, इसलिए error detection-केंद्रित UI/UX redesign की आवश्यकता है
- industrial control systems के visual और alert design principles को लागू करने की ज़रूरत है
training paradox
- Bainbridge ने manual skills को बनाए रखने के महत्व पर ज़ोर दिया और कहा कि इंसानों को नियमित रूप से सिस्टम को सीधे संचालित करना चाहिए
- ऑटोमेशन जितना बढ़ता है, इंसानी कौशल में गिरावट उतनी ही तेज़ी से आती है
- simulator training में अप्रत्याशित त्रुटि स्थितियों को पुनःनिर्मित करना कठिन होता है, इसलिए सामान्य रणनीतियों पर केंद्रित training की आवश्यकता है
- “ऐसे इंसानों से बुद्धिमत्ता की अपेक्षा करना, जिन्हें केवल निर्देश मानने के लिए प्रशिक्षित किया गया हो, अपने आप में विडंबना है” — इस पंक्ति की तरह, AI पर्यवेक्षकों को भी अपवादपूर्ण परिस्थितियों से निपटने की क्षमता का लगातार प्रशिक्षण देना होगा
- ऑटोमेशन जितना सफल होता है, मानव training की लागत उतनी बढ़ती है, और केवल लागत-कटौती के तर्क से इसका समाधान संभव नहीं
leadership dilemma
- AI एजेंट की निगरानी सिर्फ देखरेख नहीं, बल्कि निर्देशन, समन्वय और feedback के माध्यम से leadership की भूमिका है
- इंसानों को सीधे काम करने के बजाय अप्रत्यक्ष परिणाम प्रबंधन करना होगा, और इसके लिए काम करने के तरीके में नया बदलाव चाहिए
- अधिकांश practitioner leadership training के बिना एजेंट्स को प्रबंधित करेंगे, और “prompt बेहतर लिखो” जैसी सलाह पर्याप्त नहीं है
- AI leadership education की आवश्यकता है, और इसकी संरचना पारंपरिक human leadership training जैसी है
- भविष्य में एजेंट्स के पर्याप्त परिष्कृत होने तक supervisors के लिए leadership capability को मज़बूत करना अनिवार्य है
निष्कर्ष: ऑटोमेशन की असली विडंबना
- Bainbridge के निष्कर्ष की तरह, समय के दबाव के बिना इंसान उत्कृष्ट समस्या-समाधानकर्ता होते हैं, लेकिन दबाव में उनकी दक्षता तेज़ी से गिरती है
- ऑटोमेशन इंसानों की कठिनाइयों को हटाता नहीं, बल्कि उलटे और अधिक तकनीकी परिष्कार तथा मानवीय क्षमता में निवेश की माँग करता है
- 40 साल पहले की यह अंतर्दृष्टि AI एजेंट के युग में भी अब तक प्रासंगिक है, और मानव-मशीन सहयोग के संतुलन को फिर से परिभाषित करने की ज़रूरत है
- AI ऑटोमेशन की प्रगति तकनीक से अधिक, इंसानी भूमिका के पुनर्रचना पर निर्भर है
अभी कोई टिप्पणी नहीं है.