- 2017 में पेश किए गए CheXNet जैसे AI models ने निमोनिया निदान में मानव radiologist से अधिक सटीक प्रदर्शन दिखाया था, लेकिन वास्तविक चिकित्सा परिदृश्य में यह प्रदर्शन दोहराया नहीं जा सका है
- हाल के वर्षों में सैकड़ों radiology AI models को FDA की मंजूरी मिलने के बावजूद, अमेरिका में radiologist की नौकरियों और वेतन ने उलटे ऐतिहासिक ऊंचाई दर्ज की है
- medical AI की सीमाओं में डेटा की कमी, वास्तविक वातावरण से अंतर, regulatory और insurance बाधाएं, और यह तथ्य शामिल हैं कि मानव radiologist केवल निदान ही नहीं बल्कि कई अन्य भूमिकाएं भी निभाते हैं
- पूर्ण automation के बजाय, मानव और AI के साथ-साथ काम करने वाली व्यवस्था स्वास्थ्य उद्योग का मानक बन गई है, और AI के आगे बढ़ने के बावजूद radiologist के काम की मांग कम नहीं हुई है
- medical AI के प्रसार के पहले 10 साल यह विरोधाभास दिखाते हैं कि AI तकनीक productivity बढ़ाने की बड़ी क्षमता रखती है, लेकिन व्यवहार में यह अधिक मानव श्रम की मांग भी पैदा कर सकती है
परिचय: AI की शुरुआत और उससे जुड़ी उम्मीदें
- 2017 में सामने आए CheXNet जैसे AI models ने 1 लाख से अधिक chest X-ray data पर training लेकर निमोनिया की पहचान में मानव विशेषज्ञों से बेहतर accuracy दिखाई
- Annalise.ai, Lunit, Aidoc, Qure.ai जैसी कई कंपनियों ने ऐसे AI systems लॉन्च किए जो सैकड़ों बीमारियों का पता लगा सकते हैं, और जिन्हें hospital record systems में integrate भी किया जा सकता है
- FDA से मंजूर 700 से अधिक radiology AI models मौजूद हैं, जो कुल medical AI devices का 75% हैं
- Radiology को digital inputs, pattern recognition, और स्पष्ट performance measurement की वजह से AI replacement के लिए सबसे उपयुक्त क्षेत्रों में माना जाता रहा है
- लेकिन हकीकत में radiologist training की मांग अब तक के सबसे ऊंचे स्तर पर पहुंच गई है, और वेतन भी 2015 की तुलना में 48% बढ़ गया है, यानी मानव workforce की मांग बढ़ रही है
AI radiology diagnostic systems की सीमाएं
वास्तविक वातावरण और training data के बीच अंतर
- Radiology AI models संरचित data और खास परिस्थितियों में शानदार performance दिखाते हैं, लेकिन वास्तविक hospital environment में अस्पताल-दर-अस्पताल data का अंतर, diagnostic उपकरणों की विशेषताएं, और diversity की कमी के कारण इनका प्रदर्शन गिर जाता है
- अधिकांश models किसी एक खास बीमारी या एक image type पर ही उच्च accuracy दिखाते हैं, जबकि विविध मामलों में कई models को बारी-बारी से लागू करना पड़ता है, जो असुविधाजनक है
- FDA से मंजूर algorithms भी वास्तविक image reading workflow का केवल एक हिस्सा ही संभालते हैं, और वे मुख्य रूप से stroke, breast cancer, lung cancer जैसी कुछ महत्वपूर्ण बीमारियों पर केंद्रित हैं
- बच्चों, महिलाओं और अल्पसंख्यक नस्लीय समूहों के data की कमी, साथ ही ऐसी स्थितियों में जहां बीमारी सूक्ष्म रूप से दिखाई देती है या दूसरी बीमारियों के साथ मिश्रित होती है, prediction performance कमजोर पड़ जाती है
benchmark और clinical उपयोग के बीच अंतर
- Benchmark tests में AI ऊंचे quantitative metrics दर्ज करता है, लेकिन वास्तविक clinical settings में मानव radiologist और सहायक systems अपेक्षा के अनुसार अच्छे नतीजे नहीं दे पाते
- उदाहरण के लिए, mammography क्षेत्र में सहायक AI systems ने reading sensitivity तो बढ़ाई, लेकिन केवल अनावश्यक अतिरिक्त जांच और biopsy की दर बढ़ाई, जबकि cancer detection rate नहीं बढ़ा सके
- एक या दो मानव readers द्वारा साथ में की जाने वाली ‘double reading’ ने AI assistance की तुलना में cancer detection में बेहतर परिणाम दिखाए, और अनावश्यक दोबारा जांच की दर भी कम रही
कानूनी और संस्थागत regulation automation की रफ्तार सीमित करता है
- FDA radiology software को ‘assistance/classification tools’ और ‘fully automated tools’ में बांटता है
- पूर्ण automation दुर्लभ है, और IDx-DR जैसे मामलों में भी यह केवल कुछ विशेष परिस्थितियों में लागू होता है
- जिन images को AI पढ़ नहीं सकता, उन्हें software को खुद रोककर medical staff तक पहुंचाना होता है
- Regulatory requirements ऊंची हैं, और हर बार model को retrain या modify करने पर नई approval की जरूरत पड़ती है
- Insurers का मानना है कि automation tools की गलती होने पर सामूहिक नुकसान की संभावना अधिक होती है, इसलिए वे केवल AI द्वारा किए गए diagnosis पर insurance reimbursement देने से हिचकते हैं
- कानूनी रूप से, डॉक्टर द्वारा सीधे interpret और sign की गई reading पर ही insurance coverage मिलना सामान्य मानक है
मानव radiologist की भूमिका में बदलाव
- व्यवहार में radiologist अपना केवल 36% समय image interpretation में लगाते हैं, जबकि बाकी समय मरीजों और सहकर्मियों से परामर्श, जांच की निगरानी, शिक्षा, prescription changes और अन्य कामों में जाता है
- Image reading time कम होने पर भी अनावश्यक layoffs नहीं हुए; उलटे नए काम बढ़े और कुल image reading volume ही बढ़ गया
- उदाहरण के तौर पर, film-based सिस्टम से digital में बदलाव के समय भी image reading productivity काफी बढ़ी, लेकिन medical staff में कटौती नहीं हुई; बल्कि कुल imaging tests 60% से अधिक बढ़ गए
- Image processing speed बढ़ने से test waiting time कम हुआ, emergency response बेहतर हुआ, और healthcare system में इसके उपयोग के नए तरीके सामने आए
आगे का दृष्टिकोण: AI प्रसार के पहले 10 साल से मिले सबक
- पिछले 10 वर्षों में रोजमर्रा की clinical practice में AI का अपनाया जाना, AI models के तकनीकी स्तर की तुलना में काफी धीमा रहा है
- Regulation, insurance, patient consultation, और physician agency जैसे non-technical factors पूर्ण replacement के रास्ते में बाधा बने हुए हैं
- AI का मूल मॉडल workforce replacement नहीं, बल्कि मनुष्यों के साथ collaboration के जरिए productivity बढ़ाना बन गया है
- बड़े platforms (जैसे Facebook) में AI से automation की संभावना अधिक हो सकती है, लेकिन जैसे-जैसे knowledge jobs कई तरह के कामों से बनी होती हैं, software adoption मानव श्रम को घटाने के बजाय बढ़ाने की ओर झुकता है
- Radiology क्षेत्र का अनुभव दिखाता है कि AI मानव काम को तुरंत replace करने के बजाय, सामाजिक, संस्थागत और व्यवहारिक बदलावों के साथ मिलकर मानव workforce की मांग को बनाए रख सकता है या बढ़ा भी सकता है
1 टिप्पणियां
Hacker News राय
मैं एक interventional radiologist हूँ और मेरे पास computer science में master's degree भी है। imaging के बाहर के लोग अक्सर यह नहीं समझ पाते कि AI ने अभी तक radiology को क्यों replace नहीं किया। समझाने के लिए कहूँ तो, इस सवाल का जवाब कि क्या AI image interpretation में human radiologist से बेहतर हो सकता है, लगभग "हाँ" है, या जल्द ही होगा। लेकिन क्या radiologist replace हो जाएगा? इसका जवाब लगभग "नहीं" है। वजह है medical liability risk। जब तक कानून नहीं बदलता, हर report पर अंतिम sign radiologist को ही करना होता है। इसलिए चाहे AI image पढ़कर एकदम सही report लिख भी दे, bottleneck फिर भी radiologist की final review ही रहेगी। अभी radiologists रोज़ कम-से-कम 60–100 तरह-तरह की studies तेज़ी से पढ़ते हैं, और यह लगभग इंसानी सीमा है। AI सारी reports लिख भी दे, तब भी सब कुछ review और sign करने में लगभग उतना ही समय लगेगा। हाँ, कोई लापरवाह doctor सिर्फ sign दबा दे, ऐसा हो सकता है, लेकिन उस पर मुकदमा चलाने को वकील भी तैयार मिल जाएगा।
जब 2016 में Tesla ने एक demo video जारी किया था जिसमें कहा गया था कि "driver सिर्फ कानूनी कारणों से बैठा है, कुछ नहीं कर रहा, car खुद चला रही है", तब मुझे लगा था कि trucking industry हमेशा के लिए बदल जाएगी, इसलिए मैंने इस industry में आने पर फिर से सोचा था। लेकिन 2025 आ ही गया है और ज़्यादातर बदलाव या तो बहुत धीमे रहे हैं या लगभग हुए ही नहीं। technology दुनिया को बहुत बदल देगी, ऐसा optimism बहुत है, लेकिन असल में बदलाव अक्सर बहुत धीमा होता है या ठहर जाता है।
machine learning और radiology से जुड़ा सबसे अच्छा anecdote वह है जब सब लोग COVID-infected lungs के X-ray images को AI से पहचानने की race में लगे थे। एक research group ने काफ़ी अच्छा performance दिखाया था, लेकिन बाद में पता चला कि model ने अलग-अलग hospitals के image watermarks में इस्तेमाल हुए font differences सीख लिए थे। यानी वह COVID infection नहीं, बल्कि "font" पहचान रहा था। संदर्भ paper: Nature Machine Intelligence paper खोज शब्द: “AI for radiographic COVID-19 detection selects shortcuts over signal” इसका open-access paper भी मिल सकता है।
लेख का सार तीन बातें हैं: 1) अगर आप models को ज़्यादा काम देना चाहें, तो कानूनी regulation अटकता है। 2) regulators और insurers autonomous models को approve/reimburse नहीं करते। 3) radiologist के काम में diagnosis का हिस्सा कम है; patient और clinical staff के साथ communication जैसे दूसरे काम ज़्यादा हैं। इसलिए भले ही machine learning model मुफ्त में और पूरी तरह सही diagnosis दे, radiologist तुरंत "replace" नहीं होगा।
आज ही मैंने एक महिला patient को radiology में core biopsy के लिए refer किया, एक पुरुष patient को lumbar injection के लिए, एक और patient को shoulder injection के लिए, और एक महीने पहले दूसरी महिला को uterine artery embolization for endometriosis के लिए refer किया था। आगे nephrectomy के बाद urine leak embolization के लिए भी refer करने वाला हूँ। क्या LLM ये procedures कर सकता है? जब AI किसी एक skill को commoditize कर देता है, तो specialists दूसरी skills की तरफ shift हो जाते हैं और commoditized काम छोड़ देते हैं। उदाहरण के लिए, ECG interpretation मशीनों द्वारा automated होने के बाद reimbursement बहुत गिर गया, इसलिए मैंने जानबूझकर इस skill को नज़रअंदाज़ किया और brain तथा movement disorder care पर ध्यान देना शुरू किया। इसलिए अगर किसी patient को ECG interpretation चाहिए, तो मैं उसे बस cardiologist के पास भेज देता हूँ और कई अतिरिक्त tests लिख देता हूँ। इससे patient और healthcare system पर अतिरिक्त cost और time लगता है, लेकिन यही वास्तविकता है। आगे चलकर "medical desert" जैसे क्षेत्र भी बन सकते हैं, जहाँ AI के कारण experts काम नहीं करना चाहेंगे, खासकर elderly care, rural care, और psychiatry में।
2016 में Geoffrey Hinton ने कहा था कि "अब radiology training बंद कर देनी चाहिए"। अगर हम AI supporters की हर बात मान लेते, तो दुनिया अब तक कब की ढह चुकी होती।
मैं doctor भी हूँ और full-stack engineer भी, इसलिए मैं radiology या आगे की fellowship नहीं करना चाहता। AI पहले radiology को augment करेगा, और उसके बाद कुछ jobs को replace करना शुरू करेगा। मौजूदा radiologists स्वाभाविक रूप से interventional radiology जैसे नए क्षेत्रों में shift हो जाएँगे।
इस साल मई में New York Times ने भी ऐसा ही लेख छापा था कि "AI radiologists को replace नहीं कर रहा"। NYT लेख देखें doctor और Hinton की टिप्पणियाँ दिलचस्प हैं: "AI मदद करेगा और quantification करेगा, लेकिन skill की interpretive conclusion तक नहीं ले जाएगा"। "5 साल बाद AI का उपयोग न करना ही malpractice माना जा सकता है"। "लेकिन अंततः इंसान और AI साथ-साथ ही काम करेंगे"। Hinton ने बाद में email में माना कि उन्होंने ज़रूरत से ज़्यादा generalize कर दिया था; वे सिर्फ image interpretation की बात कर रहे थे, overall direction सही थी, लेकिन timing का उनका अनुमान ग़लत था।
radiology AI transformation को अनिवार्य कर देना चाहिए। radiology departments को हर दिन एक न्यूनतम प्रतिशत AI use करना चाहिए, productivity दोगुनी करनी चाहिए, और ऐसा न करने पर लोगों को निकाल देना चाहिए। CEOs जैसा कहते हैं, AI हमारे देखे गए सबसे transformative technologies में से एक है, इसलिए डरते हुए भी इसे अपनाना ही होगा। इसके अलावा कुछ स्वीकार्य नहीं।
मैं किसी non-radiologist doctor पर AI interpretation के परिणाम समझने के लिए भरोसा नहीं करूँगा। चाहे AI benchmark पर कितना भी अच्छा क्यों न हो, अगर सीधे analysis करने की background knowledge नहीं है, तो यह वैसा है जैसे 20-page paper पढ़कर भी आप यह तय न कर पाएं कि उस पर भरोसा करना चाहिए या नहीं।