---Advertisement---

क्या AI आपकी अगली बीमारी का निदान करेगा?

On: May 2, 2026 3:57 PM
Follow Us:
---Advertisement---


विज्ञान और चिकित्सा क्षेत्र में एक बड़ा भूकंप आया है और आने वाले वर्षों में दुनिया इसके झटकों को महसूस करेगी।

एआई सिस्टम नैदानिक ​​परीक्षणों में डॉक्टरों से बेहतर प्रदर्शन करता है, लेकिन विशेषज्ञों ने चेतावनी दी है कि वास्तविक दुनिया की देखभाल के लिए मानवीय निर्णय, जवाबदेही और रोगी के साथ बातचीत की आवश्यकता होती है। (शटरस्टॉक)

आधुनिक समाज के हर कोने में कृत्रिम बुद्धिमत्ता (एआई) के निहितार्थों पर चर्चा हो रही है, फिर भी स्वास्थ्य सेवा अब तक इसके व्यापक प्रभावों से कुछ हद तक बची हुई है। रुचि व्यापक है, लेकिन वैश्विक स्तर पर इसे अपनाना असमान है, नियमों के कारण इसमें देरी होती है, चीजों के गलत होने का खतरा अधिक होता है और नैदानिक ​​कार्य की गहरी मानवीय प्रकृति होती है।

कैलिफोर्निया विश्वविद्यालय, सैन फ्रांसिस्को में मेडिसिन के अध्यक्ष और क्लिनिकल एआई के सबसे विचारशील पर्यवेक्षकों में से एक डॉ. रॉबर्ट वाचर ने अपनी शानदार नई पुस्तक ए जाइंट लीप में तर्क दिया है कि एआई दवा में कहां फिट बैठता है, इस सवाल को दो अक्षों के साथ सबसे अच्छी तरह से समझा जा सकता है: क्षमता और जोखिम। वह लिखते हैं, निदान उच्च जोखिम और कम संभावना वाला है, और इसलिए इसे लागू करना मुश्किल है।

इन दिनों बहुत कम लोग सहमत होंगे, लेकिन मैं शर्त लगाता हूं कि हममें से ज्यादातर लोग ऐसे डॉक्टरों का सहारा लेते हैं जो त्वरित और सटीक निदान करते हैं। डॉ. वाचर ने लिखा, “हमारा सम्मान आंशिक रूप से इसलिए है क्योंकि प्रभावी चिकित्सा देखभाल सही निदान के साथ शुरू होती है, और आंशिक रूप से क्योंकि यह सबसे दिलचस्प चीज है जो हम करते हैं,” उन्होंने आगे कहा कि यह रोगी के लिए महत्वपूर्ण है। गलत निदान में समय, पैसा, उचित उपचार तक पहुंच और अक्सर जान चली जाती है।

जिस किसी ने भी एक कुशल निदानकर्ता को काम करते हुए देखा है, वह जानता है कि कैसे वे उन्मूलन की शरलॉकियन प्रक्रिया, बायेसियन सिद्धांत और विभेदक निदान के एक स्लेट के माध्यम से किसी बीमारी को दूर करते हैं, इसमें कुछ जादुई है। यही कारण है कि हम हाउस जैसे काल्पनिक जासूसों का सम्मान करते हैं, और यही कारण है कि वास्तविक नैदानिक ​​बुद्धिमत्ता अभी भी चिकित्सा की सर्वोच्च कला की तरह महसूस होती है।

एआई के लिए चिकित्सा में निदान अब तक की सबसे कठिन सीमाओं में से एक है।

साइंस में हाल ही में प्रकाशित एक अध्ययन में, हार्वर्ड मेडिकल स्कूल और बेथ इज़राइल डेकोनेस मेडिकल सेंटर के डॉ. पीटर जी. ब्रोड्यूर और सहकर्मियों ने ओपनएआई के ओ1-पूर्वावलोकन तर्क मॉडल को उसी ट्राइएज में संदर्भित किया है जो एक नर्स आपातकालीन कक्ष के सामने के दरवाजे पर लिख सकती है (महत्वपूर्ण संकेत, एक बुनियादी इतिहास, एक बीमार रोगी की पहली छाप)।

परिणाम आश्चर्यजनक थे.

बोस्टन के एक प्रमुख आपातकालीन विभाग से 76 वास्तविक मामलों में, मॉडल 67 प्रतिशत मामलों में सही या बहुत करीबी निदान पर पहुंच गया। भाग लेने वाले दो डॉक्टरों ने 55 प्रतिशत और 50 प्रतिशत के विरुद्ध परीक्षण किया। जब उन्हीं डॉक्टरों को बाद में विभेदक निदानों का ढेर दिया गया और यह अनुमान लगाने के लिए कहा गया कि कौन सा निदान किसी सहकर्मी द्वारा लिखा गया था और कौन सा एआई द्वारा, तो वे अंतर नहीं बता सके। एक का अनुमान 15 प्रतिशत सही निकला; अन्य को 3 फीसदी वोट मिले.

यह सिस्टम क्या है इसका संक्षिप्त रूप है। एक बड़े भाषा मॉडल को इंटरनेट, किताबों और अन्य स्रोतों से बड़ी मात्रा में पाठ पर प्रशिक्षित किया जाता है। खरबों शब्दों को संसाधित करके, यह भाषा के सांख्यिकीय पैटर्न सीखता है। चैटजीपीटी, जेमिनी और क्लाउड प्रमुख भाषा मॉडल हैं। किसी प्रश्न को देखते हुए, वे आगे क्या होना चाहिए इसकी भविष्यवाणी करके एक समय में एक उत्तर उत्पन्न करते हैं।

हाल तक, ये मॉडल एक सांस में उत्तर उत्पन्न करते थे। एक तर्क मॉडल, जैसे कि OpenAI की o1 श्रृंखला, अलग तरह से काम करती है। इसे किसी समस्या पर धीमे, चरण-दर-चरण तरीके से काम करने और रास्ते में अपने काम की जांच करने के लिए प्रशिक्षित किया जाता है। एक-सांस वाले उत्तरों से विचार-विमर्श तर्क की ओर बदलाव ने एआई प्रदर्शन में अब तक की सबसे बड़ी छलांग लगाई है।

बोस्टन का आपातकालीन विभाग ही एकमात्र परीक्षण नहीं था। इसी मॉडल का अनुसरण पांच अन्य प्रयोगों द्वारा किया गया, जिसमें न्यू इंग्लैंड जर्नल ऑफ मेडिसिन में प्रकाशित एक केस पहेली भी शामिल है, जिसे लंबे समय से नैदानिक ​​​​तर्क के परीक्षण के रूप में उपयोग किया जाता है, और वास्तविक रोगियों से लिए गए प्रबंधन मामलों का एक अलग सेट जिसमें सवाल यह नहीं था कि निदान क्या था बल्कि आगे क्या करना है। पूरे अध्ययन के दौरान, मॉडल की तुलना सैकड़ों डॉक्टरों, पिछले एआई सिस्टम और ऐतिहासिक मानव आधार रेखाओं से की गई। लगभग हर परीक्षण में, मॉडल ने डॉक्टरों के स्तर पर या उससे ऊपर प्रदर्शन किया।

लेखकों ने यह भी परीक्षण किया कि क्या मॉडल केवल प्रशिक्षित मामलों को ही याद रख रहा है। यह नहीं था. मॉडल बस डेटा पुनर्प्राप्त नहीं कर रहा था। यह तर्कसंगत निकला.

तो फिर डॉक्टरों का अंत क्या होता है? बिल्कुल नहीं।

विज्ञान के सहवर्ती परिप्रेक्ष्य में, ऑस्ट्रेलिया में फ्लिंडर्स विश्वविद्यालय के डॉ. एशले एम. हॉपकिंस और एरिक कॉर्नेलिस ने स्पष्ट रूप से कहा: “परीक्षा उत्तीर्ण करना डॉक्टर बनने के समान नहीं है।”

पाठ पर बहस करना डॉक्टर होने के समान नहीं है। मॉडल अकेले शब्दों से काम करता है। मरीज को यह नजर नहीं आया. यह परीक्षण का आदेश नहीं दे सका और परिणाम आने पर अपनी सोच को संशोधित नहीं कर सका। यह किसी परिवार के लिए बुरी खबर नहीं होनी चाहिए।

चिकित्सा केवल धारणाओं का समूह नहीं है। यह एक रिश्ता और बुलाहट है।

इस बारे में चिंतित होने का भी कारण है कि एआई उपयोगकर्ता डॉक्टर को कैसे बदलता है। विमानन दशकों से इस समस्या के एक संस्करण के साथ जी रहा है। जब मशीनें कार्यभार संभाल लेती हैं, तो मानव कौशल कम हो जाता है, यही कारण है कि पायलटों को तब भी प्रशिक्षित किया जाता है जब स्वचालन विफल हो जाता है। यह सोचने का कोई अच्छा कारण नहीं है कि नैदानिक ​​तर्क मुफ़्त है।

एक रेडियोलॉजिस्ट जो एआई के साथ छवियों को पढ़ता है, एआई के गलत होने की स्थिति में वह सुस्त हो सकता है। इस युग में प्रशिक्षित एक जूनियर डॉक्टर कभी भी पैटर्न की पहचान विकसित नहीं कर सकता है जो वर्षों के अवैतनिक अभ्यास से आती है। एक चिकित्सक अक्सर एआई-फ़्लैग्ड परीक्षण का आदेश देता है, भले ही उनका स्वयं का निर्णय कहता है कि यह अनावश्यक है, क्योंकि मुकदमेबाजी और विवेक में एक एल्गोरिदमिक ध्वज को अनदेखा करने की लागत – उस पर कार्य करने की लागत से भारी है।

कभी-कभी, विरोधाभासी रूप से, एआई वाला एक चिकित्सक इसके बिना एक चिकित्सक से भी बदतर काम करता है। जेएएमए में एक अध्ययन में पाया गया कि व्यवस्थित रूप से पक्षपाती एआई भविष्यवाणियों ने चिकित्सकों की नैदानिक ​​सटीकता को कम कर दिया है। स्पष्ट रूप से आधिकारिक दूसरी राय की उपस्थिति पहली राय देने के तरीके को बदल देती है।

यह अध्ययन भी पहले ही पुराना हो चुका है. परीक्षण किया गया मॉडल सितंबर 2024 में जारी किया गया था। कृत्रिम बुद्धिमत्ता में, यह एक पीढ़ी है। वर्तमान एआई रीजनिंग सिस्टम मल्टीमॉडल हैं, जो न केवल टेक्स्ट बल्कि छवियों, ऑडियो और वीडियो को भी प्रोसेस करते हैं। अगली पीढ़ी और अधिक सक्षम होगी.

लेकिन ऐसे महत्वपूर्ण प्रश्न हैं जिनका चिकित्सा समुदाय और बड़े पैमाने पर समाज को अभी भी उत्तर देना है – ऐसे प्रश्न जिन्हें अकेले स्मार्ट मॉडल बनाकर हल नहीं किया जा सकता है। हमें ऐसे मूल्यांकन ढांचे की आवश्यकता है जो किसी मामले की पहेली के स्पष्ट गद्य के बजाय वास्तविक देखभाल की शोर अस्पष्टता में प्रदर्शन को मापें, पारदर्शिता जो एक मरीज को यह बताए कि एक एल्गोरिदम ने उनके निदान को आकार दिया है, और अगर कुछ गलत होता है तो जवाबदेही की स्पष्ट रेखाएं।

अनिर्वाण महापात्र एक वैज्ञानिक और लेखक हैं। उनकी सबसे हालिया किताब है व्हेन द ड्रग्स डोंट वर्क। व्यक्त की गई राय व्यक्तिगत हैं



Join WhatsApp

Join Now

Join Telegram

Join Now

और पढ़ें

बंगाल नतीजों से पहले टीएमसी के काउंटिंग एजेंटों के साथ ममता, अभिषेक की अहम बैठक

संबल गांव की जमीन पर नमाज अदा करने की याचिका को इलाहाबाद हाईकोर्ट ने खारिज कर दिया है

‘गंभीर अपराध, पूछताछ जरूरी’: कोर्ट ने टीसीएस नासिक मामले में निदा खान को गिरफ्तारी से पहले जमानत देने से इनकार किया

दिल्ली का मौसम: अगले दो घंटों के दौरान शहर के कुछ हिस्सों में हल्की बारिश, गरज के साथ बौछारें पड़ सकती हैं

‘गंभीर चुनावी अपराध’: चुनाव आयोग ने डायमंड हार्बर और मगराहाट पश्चिम में मतदान के बाद 21 मई को फाल्टा में पुनर्मतदान का आदेश दिया

दिल्ली की अदालत ने मनी लॉन्ड्रिंग मामले में अल फलाह के मालिक जवाद अहमद सिद्दीकी की जमानत याचिका खारिज कर दी।

Leave a Comment