क्या AI आपकी अगली बीमारी का निदान करेगा?

AI systems outperform doctors in diagnostic tests 1777736252153
Spread the love

विज्ञान और चिकित्सा क्षेत्र में एक बड़ा भूकंप आया है और आने वाले कई वर्षों तक दुनिया इसके झटकों को महसूस करेगी।

एआई सिस्टम नैदानिक ​​​​परीक्षणों में डॉक्टरों से बेहतर प्रदर्शन करता है, लेकिन विशेषज्ञों ने चेतावनी दी है कि वास्तविक दुनिया की देखभाल के लिए मानवीय निर्णय, जवाबदेही और रोगी के साथ बातचीत की आवश्यकता होती है। (शटरस्टॉक)
एआई सिस्टम नैदानिक ​​​​परीक्षणों में डॉक्टरों से बेहतर प्रदर्शन करता है, लेकिन विशेषज्ञों ने चेतावनी दी है कि वास्तविक दुनिया की देखभाल के लिए मानवीय निर्णय, जवाबदेही और रोगी के साथ बातचीत की आवश्यकता होती है। (शटरस्टॉक)

आधुनिक समाज के हर कोने में कृत्रिम बुद्धिमत्ता (एआई) के प्रभावों पर चर्चा हो रही है, फिर भी स्वास्थ्य देखभाल अब तक इसके व्यापक प्रभावों से कुछ हद तक बची हुई है। रुचि व्यापक है, लेकिन विश्व स्तर पर इसे अपनाना असमान रहा है, विनियमन, चीजों के गलत होने के उच्च जोखिम और नैदानिक ​​​​कार्य की गहरी मानवीय प्रकृति के कारण धीमा हो गया है।

कैलिफोर्निया विश्वविद्यालय, सैन फ्रांसिस्को में मेडिसिन के अध्यक्ष और क्लिनिकल एआई के सबसे विचारशील पर्यवेक्षकों में से एक, डॉ. रॉबर्ट वाचर ने अपनी शानदार नई पुस्तक ए जाइंट लीप में तर्क दिया है कि एआई चिकित्सा में कहां फिट बैठता है, इस सवाल को दो अक्षों के साथ सबसे अच्छी तरह से समझा जाता है: व्यवहार्यता और जोखिम। वह लिखते हैं, निदान, उच्च जोखिम और कम व्यवहार्यता है, और इसलिए इसे क्रियान्वित करना मुश्किल है।

आजकल बहुत कम लोग इस बात पर सहमत होते हैं, लेकिन मैं शर्त लगाता हूं कि हममें से ज्यादातर लोग त्वरित और सटीक निदान करने वाले डॉक्टरों को बहुत सम्मान देते हैं। डॉ. वाचर लिखते हैं, “हमारी श्रद्धा आंशिक रूप से इसलिए है क्योंकि प्रभावी चिकित्सा देखभाल सही निदान के साथ शुरू होती है, और आंशिक रूप से क्योंकि यह सबसे दिलचस्प चीज है जो हम करते हैं,” और यह भी कहते हैं कि यह रोगी के लिए भी बेहद महत्वपूर्ण है। गलत निदान में समय, पैसा, सही उपचार देने का मौका और अक्सर जीवन ही खर्च हो जाता है।

जिस किसी ने भी एक कुशल निदानकर्ता को काम करते हुए देखा है, वह जानता है कि कैसे वे उन्मूलन की शर्लकियन प्रक्रिया, बायेसियन सिद्धांत और विभेदक निदान के एक स्लेट के माध्यम से एक बीमारी को छेड़ते हैं, इसमें लगभग जादुई कुछ है। यही कारण है कि हम हाउस जैसे काल्पनिक जासूसों की पूजा करते हैं, और क्यों वास्तविक नैदानिक ​​प्रतिभा अभी भी चिकित्सा की सर्वोच्च कलाओं में से एक की तरह महसूस होती है।

अब तक एआई के लिए निदान चिकित्सा की सबसे कठिन सीमाओं में से एक बनी हुई है।

साइंस में हाल ही में प्रकाशित एक अध्ययन में, हार्वर्ड मेडिकल स्कूल और बेथ इज़राइल डेकोनेस मेडिकल सेंटर के डॉ. पीटर जी. ब्रोड्यूर और उनके सहयोगियों ने ओपनएआई के ओ1-प्रीव्यू रीजनिंग मॉडल को वही ट्राइएज नोट दिया, जिसमें एक नर्स आपातकालीन कक्ष के सामने के दरवाजे पर कुछ लिख सकती है (महत्वपूर्ण संकेत, एक बुनियादी इतिहास, एक बीमार रोगी की पहली छाप)।

परिणाम आश्चर्यजनक थे.

बोस्टन के एक प्रमुख आपातकालीन विभाग से लिए गए 76 वास्तविक मामलों पर, मॉडल 67 प्रतिशत मामलों में सटीक या बहुत करीबी निदान पर पहुंचा। उपस्थित दो डॉक्टरों ने इसके विरुद्ध परीक्षण किया और 55 प्रतिशत तथा 50 प्रतिशत सफल रहे। जब उन्हीं डॉक्टरों को बाद में विभेदक निदानों का ढेर सौंपा गया और यह अनुमान लगाने के लिए कहा गया कि कौन सा एक सहकर्मी द्वारा लिखा गया था और कौन सा एआई द्वारा, तो वे अंतर नहीं बता सके। एक का अनुमान 15 प्रतिशत सही निकला; दूसरे को 3 प्रतिशत मिला।

ये प्रणालियाँ क्या हैं, इस पर एक संक्षिप्त शब्द। एक बड़े भाषा मॉडल को इंटरनेट, किताबों और अन्य स्रोतों से बड़ी मात्रा में लिए गए पाठ पर प्रशिक्षित किया जाता है। खरबों शब्दों को संसाधित करके, यह भाषा के सांख्यिकीय पैटर्न सीखता है। चैटजीपीटी, जेमिनी और क्लाउड बड़े भाषा मॉडल हैं। किसी प्रश्न को देखते हुए, वे एक बार में एक शब्द में उत्तर तैयार करते हैं और यह अनुमान लगाते हैं कि आगे क्या होगा।

हाल तक, ये मॉडल एक ही सांस में उत्तर दे देते थे। एक तर्क मॉडल, जैसे कि OpenAI की o1 श्रृंखला, अलग तरह से काम करती है। इसे धीमा करने, समस्या से कदम दर कदम निपटने और रास्ते में अपने काम की जांच करने के लिए प्रशिक्षित किया जाता है। एक-सांस में जवाब देने से लेकर जानबूझकर तर्क करने की ओर बदलाव ने एआई प्रदर्शन में अब तक की सबसे बड़ी छलांग लगाई है।

बोस्टन आपातकालीन विभाग एकमात्र परीक्षण नहीं था। इसी मॉडल को पांच अन्य प्रयोगों के माध्यम से रखा गया था, जिसमें न्यू इंग्लैंड जर्नल ऑफ मेडिसिन के प्रकाशित केस पहेलियां शामिल थीं, जो लंबे समय से नैदानिक ​​​​तर्क के मांग वाले परीक्षणों के रूप में उपयोग की जाती थीं, और वास्तविक रोगियों से लिए गए प्रबंधन मामलों का एक अलग सेट था जिसमें सवाल यह नहीं था कि निदान क्या है बल्कि आगे क्या करना है। पूरे अध्ययन में, मॉडल की तुलना सैकड़ों डॉक्टरों, पहले के एआई सिस्टम और ऐतिहासिक मानव आधार रेखाओं से की गई। लगभग हर प्रयोग में, मॉडल ने डॉक्टरों के स्तर पर या उससे ऊपर प्रदर्शन किया।

लेखकों ने यह भी जांचा कि क्या मॉडल केवल उन मामलों को याद कर रहा था जिन पर उसे प्रशिक्षित किया गया था। यह नहीं था. मॉडल केवल जानकारी पुनर्प्राप्त नहीं कर रहा था। यह तर्कपूर्ण प्रतीत हुआ।

तो क्या डॉक्टर ख़त्म हो गए? बिल्कुल नहीं।

विज्ञान में एक संलग्न परिप्रेक्ष्य में, डॉ. ऑस्ट्रेलिया में फ्लिंडर्स यूनिवर्सिटी के एशले एम. हॉपकिंस और एरिक कॉर्नेलिस ने स्पष्ट रूप से कहा: “परीक्षा उत्तीर्ण करना डॉक्टर बनने के समान नहीं है।”

पाठ पर तर्क करना एक डॉक्टर होने के समान नहीं है। मॉडल ने अकेले शब्दों से काम किया। इसमें मरीज को नहीं देखा गया. यह परीक्षण का आदेश नहीं दे सका और परिणाम आने पर अपनी सोच को संशोधित नहीं कर सका। इसे किसी परिवार को बुरी खबर नहीं देनी थी।

चिकित्सा केवल अनुमानों का समूह नहीं है। यह एक रिश्ता और बुलाहट है।

इस बारे में चिंता करने के भी कारण हैं कि एआई इसका उपयोग करने वाले डॉक्टर को कैसे बदल देता है। विमानन दशकों से इस समस्या के एक संस्करण के साथ जी रहा है। जब मशीनें कार्यभार संभाल लेती हैं, तो मानव कौशल क्षीण हो जाता है, यही कारण है कि पायलटों को अभी भी उन क्षणों के लिए प्रशिक्षित किया जाता है जब स्वचालन विफल हो जाता है। यह सोचने का कोई अच्छा कारण नहीं है कि नैदानिक ​​​​तर्क को छूट दी गई है।

एक रेडियोलॉजिस्ट जो एआई के साथ छवियों को पढ़ता है, वह उन मामलों में सुस्त हो सकता है जब एआई गलत हो जाता है। इस युग में प्रशिक्षित एक जूनियर डॉक्टर कभी भी पैटर्न की पहचान विकसित नहीं कर सकता है जो वर्षों के बिना सहायता प्राप्त अभ्यास से आती है। एक चिकित्सक अक्सर एआई द्वारा चिह्नित परीक्षण का आदेश देगा, तब भी जब उनका अपना निर्णय कहता है कि यह अनावश्यक है, क्योंकि मुकदमेबाजी और विवेक में एक एल्गोरिदमिक ध्वज को अनदेखा करने की लागत उस पर कार्य करने की लागत से भारी है।

कभी-कभी, विरोधाभासी रूप से, एआई वाला एक चिकित्सक इसके बिना एक चिकित्सक से भी बदतर प्रदर्शन करता है। जेएएमए में एक अध्ययन में पाया गया कि व्यवस्थित रूप से पक्षपाती एआई भविष्यवाणियों ने चिकित्सकों की नैदानिक ​​सटीकता को कम कर दिया है। स्पष्ट रूप से आधिकारिक दूसरी राय की मौजूदगी पहली राय पेश करने के तरीके को बदल देती है।

ये स्टडी भी पहले से पुरानी है. परीक्षण किया गया मॉडल सितंबर 2024 में जारी किया गया था। कृत्रिम बुद्धिमत्ता में, वह एक पीढ़ी है। वर्तमान एआई रीजनिंग सिस्टम मल्टीमॉडल हैं, जो न केवल टेक्स्ट बल्कि छवियों, ऑडियो और वीडियो को भी प्रोसेस करते हैं। अगली पीढ़ी और भी अधिक सक्षम होगी।

लेकिन ऐसे महत्वपूर्ण प्रश्न हैं जिनका चिकित्सा समुदाय और समग्र समाज ने अभी तक उत्तर नहीं दिया है – ऐसे प्रश्न जिन्हें अकेले स्मार्ट मॉडल बनाकर हल नहीं किया जा सकता है। हमें ऐसे मूल्यांकन ढांचे की आवश्यकता है जो किसी केस पहेली के साफ गद्य के बजाय वास्तविक देखभाल की शोर अस्पष्टता में प्रदर्शन को मापें, पारदर्शिता जो रोगी को यह बताए कि एक एल्गोरिदम ने उनके निदान को आकार दिया है, और कुछ गलत होने पर जवाबदेही की स्पष्ट रेखाएं।

अनिर्बान महापात्रा एक वैज्ञानिक और लेखक हैं। उनकी सबसे हालिया किताब है व्हेन द ड्रग्स डोंट वर्क। व्यक्त किये गये विचार व्यक्तिगत हैं

(टैग्सटूट्रांसलेट)एआई(टी)कृत्रिम बुद्धिमत्ता(टी)बीमारी(टी)निदान(टी)चिकित्सा देखभाल(टी)नैदानिक ​​​​तर्क


Discover more from Star News 24 Live

Subscribe to get the latest posts sent to your email.

Leave a Reply

Your email address will not be published. Required fields are marked *

Discover more from Star News 24 Live

Subscribe now to keep reading and get access to the full archive.

Continue reading