---Advertisement---

क्या AI आपकी अगली बीमारी का निदान करेगा?

On: May 2, 2026 3:57 PM
Follow Us:
---Advertisement---


विज्ञान और चिकित्सा क्षेत्र में एक बड़ा भूकंप आया है और आने वाले वर्षों में दुनिया इसके झटकों को महसूस करेगी।

एआई सिस्टम नैदानिक ​​परीक्षणों में डॉक्टरों से बेहतर प्रदर्शन करता है, लेकिन विशेषज्ञों ने चेतावनी दी है कि वास्तविक दुनिया की देखभाल के लिए मानवीय निर्णय, जवाबदेही और रोगी के साथ बातचीत की आवश्यकता होती है। (शटरस्टॉक)

आधुनिक समाज के हर कोने में कृत्रिम बुद्धिमत्ता (एआई) के निहितार्थों पर चर्चा हो रही है, फिर भी स्वास्थ्य सेवा अब तक इसके व्यापक प्रभावों से कुछ हद तक बची हुई है। रुचि व्यापक है, लेकिन वैश्विक स्तर पर इसे अपनाना असमान है, नियमों के कारण इसमें देरी होती है, चीजों के गलत होने का खतरा अधिक होता है और नैदानिक ​​कार्य की गहरी मानवीय प्रकृति होती है।

कैलिफोर्निया विश्वविद्यालय, सैन फ्रांसिस्को में मेडिसिन के अध्यक्ष और क्लिनिकल एआई के सबसे विचारशील पर्यवेक्षकों में से एक डॉ. रॉबर्ट वाचर ने अपनी शानदार नई पुस्तक ए जाइंट लीप में तर्क दिया है कि एआई दवा में कहां फिट बैठता है, इस सवाल को दो अक्षों के साथ सबसे अच्छी तरह से समझा जा सकता है: क्षमता और जोखिम। वह लिखते हैं, निदान उच्च जोखिम और कम संभावना वाला है, और इसलिए इसे लागू करना मुश्किल है।

इन दिनों बहुत कम लोग सहमत होंगे, लेकिन मैं शर्त लगाता हूं कि हममें से ज्यादातर लोग ऐसे डॉक्टरों का सहारा लेते हैं जो त्वरित और सटीक निदान करते हैं। डॉ. वाचर ने लिखा, “हमारा सम्मान आंशिक रूप से इसलिए है क्योंकि प्रभावी चिकित्सा देखभाल सही निदान के साथ शुरू होती है, और आंशिक रूप से क्योंकि यह सबसे दिलचस्प चीज है जो हम करते हैं,” उन्होंने आगे कहा कि यह रोगी के लिए महत्वपूर्ण है। गलत निदान में समय, पैसा, उचित उपचार तक पहुंच और अक्सर जान चली जाती है।

जिस किसी ने भी एक कुशल निदानकर्ता को काम करते हुए देखा है, वह जानता है कि कैसे वे उन्मूलन की शरलॉकियन प्रक्रिया, बायेसियन सिद्धांत और विभेदक निदान के एक स्लेट के माध्यम से किसी बीमारी को दूर करते हैं, इसमें कुछ जादुई है। यही कारण है कि हम हाउस जैसे काल्पनिक जासूसों का सम्मान करते हैं, और यही कारण है कि वास्तविक नैदानिक ​​बुद्धिमत्ता अभी भी चिकित्सा की सर्वोच्च कला की तरह महसूस होती है।

एआई के लिए चिकित्सा में निदान अब तक की सबसे कठिन सीमाओं में से एक है।

साइंस में हाल ही में प्रकाशित एक अध्ययन में, हार्वर्ड मेडिकल स्कूल और बेथ इज़राइल डेकोनेस मेडिकल सेंटर के डॉ. पीटर जी. ब्रोड्यूर और सहकर्मियों ने ओपनएआई के ओ1-पूर्वावलोकन तर्क मॉडल को उसी ट्राइएज में संदर्भित किया है जो एक नर्स आपातकालीन कक्ष के सामने के दरवाजे पर लिख सकती है (महत्वपूर्ण संकेत, एक बुनियादी इतिहास, एक बीमार रोगी की पहली छाप)।

परिणाम आश्चर्यजनक थे.

बोस्टन के एक प्रमुख आपातकालीन विभाग से 76 वास्तविक मामलों में, मॉडल 67 प्रतिशत मामलों में सही या बहुत करीबी निदान पर पहुंच गया। भाग लेने वाले दो डॉक्टरों ने 55 प्रतिशत और 50 प्रतिशत के विरुद्ध परीक्षण किया। जब उन्हीं डॉक्टरों को बाद में विभेदक निदानों का ढेर दिया गया और यह अनुमान लगाने के लिए कहा गया कि कौन सा निदान किसी सहकर्मी द्वारा लिखा गया था और कौन सा एआई द्वारा, तो वे अंतर नहीं बता सके। एक का अनुमान 15 प्रतिशत सही निकला; अन्य को 3 फीसदी वोट मिले.

यह सिस्टम क्या है इसका संक्षिप्त रूप है। एक बड़े भाषा मॉडल को इंटरनेट, किताबों और अन्य स्रोतों से बड़ी मात्रा में पाठ पर प्रशिक्षित किया जाता है। खरबों शब्दों को संसाधित करके, यह भाषा के सांख्यिकीय पैटर्न सीखता है। चैटजीपीटी, जेमिनी और क्लाउड प्रमुख भाषा मॉडल हैं। किसी प्रश्न को देखते हुए, वे आगे क्या होना चाहिए इसकी भविष्यवाणी करके एक समय में एक उत्तर उत्पन्न करते हैं।

हाल तक, ये मॉडल एक सांस में उत्तर उत्पन्न करते थे। एक तर्क मॉडल, जैसे कि OpenAI की o1 श्रृंखला, अलग तरह से काम करती है। इसे किसी समस्या पर धीमे, चरण-दर-चरण तरीके से काम करने और रास्ते में अपने काम की जांच करने के लिए प्रशिक्षित किया जाता है। एक-सांस वाले उत्तरों से विचार-विमर्श तर्क की ओर बदलाव ने एआई प्रदर्शन में अब तक की सबसे बड़ी छलांग लगाई है।

बोस्टन का आपातकालीन विभाग ही एकमात्र परीक्षण नहीं था। इसी मॉडल का अनुसरण पांच अन्य प्रयोगों द्वारा किया गया, जिसमें न्यू इंग्लैंड जर्नल ऑफ मेडिसिन में प्रकाशित एक केस पहेली भी शामिल है, जिसे लंबे समय से नैदानिक ​​​​तर्क के परीक्षण के रूप में उपयोग किया जाता है, और वास्तविक रोगियों से लिए गए प्रबंधन मामलों का एक अलग सेट जिसमें सवाल यह नहीं था कि निदान क्या था बल्कि आगे क्या करना है। पूरे अध्ययन के दौरान, मॉडल की तुलना सैकड़ों डॉक्टरों, पिछले एआई सिस्टम और ऐतिहासिक मानव आधार रेखाओं से की गई। लगभग हर परीक्षण में, मॉडल ने डॉक्टरों के स्तर पर या उससे ऊपर प्रदर्शन किया।

लेखकों ने यह भी परीक्षण किया कि क्या मॉडल केवल प्रशिक्षित मामलों को ही याद रख रहा है। यह नहीं था. मॉडल बस डेटा पुनर्प्राप्त नहीं कर रहा था। यह तर्कसंगत निकला.

तो फिर डॉक्टरों का अंत क्या होता है? बिल्कुल नहीं।

विज्ञान के सहवर्ती परिप्रेक्ष्य में, ऑस्ट्रेलिया में फ्लिंडर्स विश्वविद्यालय के डॉ. एशले एम. हॉपकिंस और एरिक कॉर्नेलिस ने स्पष्ट रूप से कहा: “परीक्षा उत्तीर्ण करना डॉक्टर बनने के समान नहीं है।”

पाठ पर बहस करना डॉक्टर होने के समान नहीं है। मॉडल अकेले शब्दों से काम करता है। मरीज को यह नजर नहीं आया. यह परीक्षण का आदेश नहीं दे सका और परिणाम आने पर अपनी सोच को संशोधित नहीं कर सका। यह किसी परिवार के लिए बुरी खबर नहीं होनी चाहिए।

चिकित्सा केवल धारणाओं का समूह नहीं है। यह एक रिश्ता और बुलाहट है।

इस बारे में चिंतित होने का भी कारण है कि एआई उपयोगकर्ता डॉक्टर को कैसे बदलता है। विमानन दशकों से इस समस्या के एक संस्करण के साथ जी रहा है। जब मशीनें कार्यभार संभाल लेती हैं, तो मानव कौशल कम हो जाता है, यही कारण है कि पायलटों को तब भी प्रशिक्षित किया जाता है जब स्वचालन विफल हो जाता है। यह सोचने का कोई अच्छा कारण नहीं है कि नैदानिक ​​तर्क मुफ़्त है।

एक रेडियोलॉजिस्ट जो एआई के साथ छवियों को पढ़ता है, एआई के गलत होने की स्थिति में वह सुस्त हो सकता है। इस युग में प्रशिक्षित एक जूनियर डॉक्टर कभी भी पैटर्न की पहचान विकसित नहीं कर सकता है जो वर्षों के अवैतनिक अभ्यास से आती है। एक चिकित्सक अक्सर एआई-फ़्लैग्ड परीक्षण का आदेश देता है, भले ही उनका स्वयं का निर्णय कहता है कि यह अनावश्यक है, क्योंकि मुकदमेबाजी और विवेक में एक एल्गोरिदमिक ध्वज को अनदेखा करने की लागत – उस पर कार्य करने की लागत से भारी है।

कभी-कभी, विरोधाभासी रूप से, एआई वाला एक चिकित्सक इसके बिना एक चिकित्सक से भी बदतर काम करता है। जेएएमए में एक अध्ययन में पाया गया कि व्यवस्थित रूप से पक्षपाती एआई भविष्यवाणियों ने चिकित्सकों की नैदानिक ​​सटीकता को कम कर दिया है। स्पष्ट रूप से आधिकारिक दूसरी राय की उपस्थिति पहली राय देने के तरीके को बदल देती है।

यह अध्ययन भी पहले ही पुराना हो चुका है. परीक्षण किया गया मॉडल सितंबर 2024 में जारी किया गया था। कृत्रिम बुद्धिमत्ता में, यह एक पीढ़ी है। वर्तमान एआई रीजनिंग सिस्टम मल्टीमॉडल हैं, जो न केवल टेक्स्ट बल्कि छवियों, ऑडियो और वीडियो को भी प्रोसेस करते हैं। अगली पीढ़ी और अधिक सक्षम होगी.

लेकिन ऐसे महत्वपूर्ण प्रश्न हैं जिनका चिकित्सा समुदाय और बड़े पैमाने पर समाज को अभी भी उत्तर देना है – ऐसे प्रश्न जिन्हें अकेले स्मार्ट मॉडल बनाकर हल नहीं किया जा सकता है। हमें ऐसे मूल्यांकन ढांचे की आवश्यकता है जो किसी मामले की पहेली के स्पष्ट गद्य के बजाय वास्तविक देखभाल की शोर अस्पष्टता में प्रदर्शन को मापें, पारदर्शिता जो एक मरीज को यह बताए कि एक एल्गोरिदम ने उनके निदान को आकार दिया है, और अगर कुछ गलत होता है तो जवाबदेही की स्पष्ट रेखाएं।

अनिर्वाण महापात्र एक वैज्ञानिक और लेखक हैं। उनकी सबसे हालिया किताब है व्हेन द ड्रग्स डोंट वर्क। व्यक्त की गई राय व्यक्तिगत हैं



Join WhatsApp

Join Now

Join Telegram

Join Now

और पढ़ें

दिल्ली का मौसम: अगले दो घंटों के दौरान शहर के कुछ हिस्सों में हल्की बारिश, गरज के साथ बौछारें पड़ सकती हैं

‘गंभीर चुनावी अपराध’: चुनाव आयोग ने डायमंड हार्बर और मगराहाट पश्चिम में मतदान के बाद 21 मई को फाल्टा में पुनर्मतदान का आदेश दिया

दिल्ली की अदालत ने मनी लॉन्ड्रिंग मामले में अल फलाह के मालिक जवाद अहमद सिद्दीकी की जमानत याचिका खारिज कर दी।

मणिपुर ब्लास्ट में मारे गए 2 बच्चों के शव 25 दिन बाद परिवार को मिले

टीएमसी 200 से अधिक सीटें जीतेगी, एग्जिट पोल अभियान शेयर बाजार को प्रभावित करेगा: ममता बंगाल में जीत को लेकर आश्वस्त हैं

विदेश मंत्री जयशंकर ने संबंधों को मजबूत करने के लिए जमैका, सूरीनाम, त्रिनिदाद और टोबैगो का दौरा किया

Leave a Comment