• Lisanne Bainbridge के 1983 के पेपर “The ironies of automation” के दूसरे अध्याय ‘Approaches to solutions’ को केंद्र में रखकर, AI-आधारित ऑटोमेशन पर लागू होने वाली अंतर्दृष्टियों की पड़ताल
  • जब इंसान AI एजेंट द्वारा किए जाने वाले काम की निगरानी करता है, तो तेज़ निर्णय और तनावपूर्ण परिस्थितियों में संज्ञानात्मक सीमाएँ industrial control systems जैसी जोखिम संरचना बनाती हैं
  • मौजूदा LLM-आधारित agent UI/UX त्रुटि पहचान के लिए उपयुक्त नहीं है, और industrial control design principles से सीखने की ज़रूरत है
  • training paradox के कारण, ऑटोमेशन जितना अधिक सफल होता है, मानव पर्यवेक्षक के लिए निरंतर और महँगी training उतनी ही अधिक आवश्यक हो जाती है
  • AI एजेंट के युग में साधारण निगरानी से आगे बढ़कर ‘leadership capability’ की आवश्यकता होती है, और यह मानव-मशीन सहयोग की एक नई संरचना की ओर ले जाता है

AI ऑटोमेशन और मानवीय निर्णय की सीमाएँ

  • industrial control systems में कुछ ही सेकंड के भीतर प्रतिक्रिया देनी पड़ती है, जबकि white-collar work automation में तात्कालिक जोखिम कम हो सकता है, फिर भी तेज़ निर्णय और हस्तक्षेप की आवश्यकता बनी रहती है
    • जब AI अतिमानवीय गति से परिणाम उत्पन्न करता है, तो इंसानों को उन्हें समझने और सत्यापित करने के लिए उसी स्तर के cognitive support की आवश्यकता होती है
    • कंपनियों की efficiency-केंद्रित संस्कृति और stressful environment इंसानों की विश्लेषण क्षमता को कमज़ोर करते हैं, जिससे त्रुटि पहचान और कठिन हो जाती है
  • AI परिणामों की त्रुटियाँ security incidents जैसे गंभीर परिणामों तक ले जा सकती हैं, इसलिए industrial control के समान स्तर की monitoring system design की आवश्यकता है

सबसे खराब UI समस्या

  • Bainbridge का कहना है कि “कम संभावना वाली घटनाओं को तेज़ी से पहचानना हो तो कृत्रिम सहायता की ज़रूरत होती है
    • इसका अर्थ है कि monitoring fatigue की समस्या को कम करने के लिए चेतावनी प्रणाली को मज़बूत करना आवश्यक है
  • मौजूदा AI agent fleet management तरीका ऐसा अप्रभावी interface है जिसमें इंसानों को सैकड़ों पंक्तियों की योजनाएँ देखनी पड़ती हैं
    • त्रुटियाँ दुर्लभ हो सकती हैं, लेकिन घातक भी हो सकती हैं, इसलिए error detection-केंद्रित UI/UX redesign की आवश्यकता है
    • industrial control systems के visual और alert design principles को लागू करने की ज़रूरत है

training paradox

  • Bainbridge ने manual skills को बनाए रखने के महत्व पर ज़ोर दिया और कहा कि इंसानों को नियमित रूप से सिस्टम को सीधे संचालित करना चाहिए
    • ऑटोमेशन जितना बढ़ता है, इंसानी कौशल में गिरावट उतनी ही तेज़ी से आती है
  • simulator training में अप्रत्याशित त्रुटि स्थितियों को पुनःनिर्मित करना कठिन होता है, इसलिए सामान्य रणनीतियों पर केंद्रित training की आवश्यकता है
  • ऐसे इंसानों से बुद्धिमत्ता की अपेक्षा करना, जिन्हें केवल निर्देश मानने के लिए प्रशिक्षित किया गया हो, अपने आप में विडंबना है” — इस पंक्ति की तरह, AI पर्यवेक्षकों को भी अपवादपूर्ण परिस्थितियों से निपटने की क्षमता का लगातार प्रशिक्षण देना होगा
    • ऑटोमेशन जितना सफल होता है, मानव training की लागत उतनी बढ़ती है, और केवल लागत-कटौती के तर्क से इसका समाधान संभव नहीं

leadership dilemma

  • AI एजेंट की निगरानी सिर्फ देखरेख नहीं, बल्कि निर्देशन, समन्वय और feedback के माध्यम से leadership की भूमिका है
    • इंसानों को सीधे काम करने के बजाय अप्रत्यक्ष परिणाम प्रबंधन करना होगा, और इसके लिए काम करने के तरीके में नया बदलाव चाहिए
  • अधिकांश practitioner leadership training के बिना एजेंट्स को प्रबंधित करेंगे, और “prompt बेहतर लिखो” जैसी सलाह पर्याप्त नहीं है
    • AI leadership education की आवश्यकता है, और इसकी संरचना पारंपरिक human leadership training जैसी है
  • भविष्य में एजेंट्स के पर्याप्त परिष्कृत होने तक supervisors के लिए leadership capability को मज़बूत करना अनिवार्य है

निष्कर्ष: ऑटोमेशन की असली विडंबना

  • Bainbridge के निष्कर्ष की तरह, समय के दबाव के बिना इंसान उत्कृष्ट समस्या-समाधानकर्ता होते हैं, लेकिन दबाव में उनकी दक्षता तेज़ी से गिरती है
  • ऑटोमेशन इंसानों की कठिनाइयों को हटाता नहीं, बल्कि उलटे और अधिक तकनीकी परिष्कार तथा मानवीय क्षमता में निवेश की माँग करता है
  • 40 साल पहले की यह अंतर्दृष्टि AI एजेंट के युग में भी अब तक प्रासंगिक है, और मानव-मशीन सहयोग के संतुलन को फिर से परिभाषित करने की ज़रूरत है
  • AI ऑटोमेशन की प्रगति तकनीक से अधिक, इंसानी भूमिका के पुनर्रचना पर निर्भर है

अभी कोई टिप्पणी नहीं है.

अभी कोई टिप्पणी नहीं है.