Site icon Taaza Time 18

आपातकालीन कक्ष परीक्षणों में, हार्वर्ड अध्ययन में पाया गया कि एआई ने 67% सटीकता के साथ डॉक्टरों से बेहतर प्रदर्शन किया प्रौद्योगिकी समाचार

track_1x1.jpg


कृत्रिम बुद्धिमत्ता (एआई) और रोबोटिक्स को तेजी से स्वास्थ्य देखभाल के भविष्य के रूप में स्थापित किया जा रहा है, जो निदान, उपचार और रोगी देखभाल में बदलाव लाने का वादा कर रहे हैं। हालाँकि, यह दिखाने वाले साक्ष्य की कमी है कि एआई-संचालित सिस्टम उच्च दबाव वाली नैदानिक ​​​​सेटिंग्स में विश्वसनीय रूप से काम कर सकते हैं, जहां सटीकता और गति महत्वपूर्ण हैं।

चिकित्सा संदर्भों में, विशेष रूप से वास्तविक जीवन के आपातकालीन कक्ष में बड़े भाषा मॉडल (एलएलएम) के प्रदर्शन की जांच करने के प्रयास में, एक नए अध्ययन में पाया गया है कि कम से कम एक एलएलएम मानव डॉक्टरों की तुलना में रोगियों का अधिक सटीक निदान करने में सक्षम था। इसने 50-55 प्रतिशत सटीकता दर के साथ मानव डॉक्टरों की तुलना में 67 प्रतिशत मामलों में सटीक या बहुत करीबी निदान प्रदान किया।

अध्ययन में प्रकाशित किया गया था विज्ञान हार्वर्ड मेडिकल स्कूल और बेथ इज़राइल डेकोनेस मेडिकल सेंटर के चिकित्सकों और कंप्यूटर वैज्ञानिकों के शोधकर्ताओं की एक टीम द्वारा पिछले सप्ताह जर्नल।

एलएलएम के खिलाफ सैकड़ों डॉक्टरों की प्रतिक्रियाओं का परीक्षण करने वाले परीक्षणों के आधार पर अध्ययन के निष्कर्ष बताते हैं कि एआई-संचालित सिस्टम वास्तविक दुनिया के निर्णय लेने में डॉक्टरों का समर्थन करने के करीब पहुंच सकते हैं। यह ऐसे समय में आया है जब स्वास्थ्य देखभाल में एआई को अपनाने में तेजी आ रही है, अमेरिकन मेडिकल एसोसिएशन (एएमए) के अनुसार, पांच अमेरिकी चिकित्सकों में से लगभग एक पहले से ही निदान में सहायता के लिए एआई का उपयोग कर रहा है।

रॉयल कॉलेज ऑफ फिजिशियन द्वारा किए गए एक अन्य सर्वेक्षण में पाया गया कि यूके में 16 प्रतिशत डॉक्टर नैदानिक ​​​​निर्णय लेने के लिए प्रतिदिन एआई टूल का उपयोग कर रहे हैं।

हार्वर्ड अध्ययन के प्रमुख लेखकों में से एक अर्जुन मनराई ने कहा, “मुझे नहीं लगता कि हमारे निष्कर्षों का मतलब यह है कि एआई डॉक्टरों की जगह ले लेता है। मुझे लगता है कि इसका मतलब यह है कि हम प्रौद्योगिकी में वास्तव में गहरा बदलाव देख रहे हैं जो दवा को नया आकार देगा।” अभिभावक. एक अन्य प्रमुख लेखक डॉ. एडम रोडमैन को उम्मीद है कि एआई सिस्टम चिकित्सकों की जगह नहीं लेगा, बल्कि उन्हें “ट्रायडिक केयर मॉडल… डॉक्टर, मरीज और एक कृत्रिम बुद्धिमत्ता प्रणाली” में शामिल कर देगा।

अनुसंधान क्रियाविधि

अपने प्रयोग के हिस्से के रूप में, शोधकर्ताओं ने 76 रोगियों का चयन किया जो बेथ इज़राइल आपातकालीन कक्ष में आए थे। दो आंतरिक चिकित्सा उपस्थित चिकित्सकों को रोगियों का निदान करने के लिए कहा गया था, जबकि ओपनएआई के ओ1 रीजनिंग मॉडल और जीपीटी-4ओ का उपयोग रोगियों के एक ही समूह के अलग-अलग निदान उत्पन्न करने के लिए किया गया था।

इस विज्ञापन के नीचे कहानी जारी है

शोधकर्ताओं ने इस बात पर जोर दिया कि रोगी डेटा पूर्व-संसाधित नहीं था, जिसका अर्थ है कि एआई मॉडल उसी जानकारी के साथ प्रस्तुत किए गए थे जो प्रत्येक निदान के समय रोगियों के इलेक्ट्रॉनिक मेडिकल रिकॉर्ड में उपलब्ध थी।

सभी निदानों का मूल्यांकन दो अन्य उपस्थित चिकित्सकों द्वारा किया गया था, जो यह नहीं जानते थे कि कौन से निदान मनुष्यों से आए थे और कौन से एआई-जनित थे।

मुख्य निष्कर्ष

पहले डायग्नोस्टिक टचप्वाइंट (प्रारंभिक ईआर ट्राइएज) पर, जहां महत्वपूर्ण संकेत डेटा, जनसांख्यिकीय जानकारी और मरीज वहां क्यों था, इस पर कुछ वाक्य जैसी न्यूनतम जानकारी उपलब्ध है, एआई मॉडल ने 67 प्रतिशत मामलों में सटीक या बहुत करीबी निदान की पहचान की, मानव डॉक्टरों से बेहतर प्रदर्शन किया, जो केवल 50-55 प्रतिशत मामलों में सही थे।

जब रोगियों के बारे में अधिक जानकारी उपलब्ध कराई गई, तो ओपनएआई के ओ1 रीजनिंग मॉडल की निदान सटीकता दर मानव डॉक्टरों द्वारा हासिल की गई 70-79 प्रतिशत सटीकता की तुलना में बढ़कर 82 प्रतिशत हो गई। अध्ययन में कहा गया है, “प्रत्येक डायग्नोस्टिक टचप्वाइंट पर, o1 ने या तो दो उपस्थित चिकित्सकों और 4o की तुलना में या तो नाममात्र रूप से बेहतर प्रदर्शन किया।”

इस विज्ञापन के नीचे कहानी जारी है

जब 46 मानव डॉक्टरों और दो एआई मॉडलों के एक बड़े समूह को पांच नैदानिक ​​मामले अध्ययनों की जांच करने के लिए कहा गया, तो खोज इंजन जैसे पारंपरिक उपकरणों पर भरोसा करने वाले मानव डॉक्टरों द्वारा प्राप्त 34 प्रतिशत की तुलना में मॉडलों ने 89 प्रतिशत अंक प्राप्त किए।

अध्ययन की सीमाएं

अध्ययन केवल पाठ्य रूप में कागजी कार्रवाई के आधार पर एआई मॉडल की प्रतिक्रियाओं पर केंद्रित था। शोधकर्ताओं ने अध्ययन में स्वीकार किया कि इसने अन्य संकेतों जैसे कि मरीज के संकट के स्तर या उनकी दृश्य उपस्थिति को पढ़ने के आधार पर एलएलएम का मूल्यांकन नहीं किया। वर्तमान एआई मॉडल जैसे ओ1 और जीपीटी-4ओ में भी त्रुटियां और मतिभ्रम होने की संभावना है, जिससे गंभीर दायित्व जोखिम पैदा होता है।

डॉक्टरों ने जवाबदेही के लिए औपचारिक ढांचे की अनुपस्थिति पर भी प्रकाश डाला है। अधिकांश मरीज़ यह भी चाहेंगे कि मानव डॉक्टर एआई उपकरणों पर भरोसा किए बिना जीवन या मृत्यु के निर्णयों में उनका मार्गदर्शन करें। विशेष रूप से, स्वास्थ्य देखभाल में एआई उपकरणों के बढ़ने से डॉक्टर स्वतंत्र रूप से सोचे बिना एआई-जनित उत्तरों को टाल सकते हैं। हार्वर्ड अध्ययन बुजुर्ग रोगियों या गैर-अंग्रेजी बोलने वालों का सटीक निदान करने में एलएलएम के प्रदर्शन का मूल्यांकन करने में विफल रहा है।

अध्ययन पर डॉक्टर कैसी प्रतिक्रिया दे रहे हैं?

एडिनबर्ग विश्वविद्यालय के चिकित्सा सूचना विज्ञान केंद्र के सह-निदेशक प्रोफेसर इवेन हैरिसन ने कहा, “ये प्रणालियाँ अब केवल चिकित्सा परीक्षा उत्तीर्ण करने या कृत्रिम परीक्षण मामलों को हल करने तक ही सीमित नहीं हैं। वे चिकित्सकों के लिए उपयोगी दूसरी-राय उपकरण की तरह दिखने लगी हैं, खासकर जब संभावित निदान की एक विस्तृत श्रृंखला पर विचार करना और कुछ महत्वपूर्ण छूटने से बचना महत्वपूर्ण है।”

इस विज्ञापन के नीचे कहानी जारी है

“अगर हम एआई उपकरणों की तुलना चिकित्सकों की नैदानिक ​​क्षमता से करने जा रहे हैं, तो हमें तुलना करके शुरुआत करनी चाहिए [them] उन चिकित्सकों के लिए जो वास्तव में उस विशेषज्ञता का अभ्यास करते हैं। मुझे आश्चर्य नहीं होगा अगर एलएलएम न्यूरोसर्जरी बोर्ड परीक्षा में त्वचा विशेषज्ञ को हरा दे, [but] आपातकालीन चिकित्सक क्रिस्टन पंथागनी ने एक ऑनलाइन पोस्ट में कहा, “यह जानना विशेष रूप से उपयोगी बात नहीं है।”

पंथागनी ने कहा, “पहली बार किसी मरीज को देखने वाले ईआर डॉक्टर के रूप में, मेरा प्राथमिक लक्ष्य आपके अंतिम निदान का अनुमान लगाना नहीं है। मेरा प्राथमिक लक्ष्य यह निर्धारित करना है कि क्या आपके पास कोई ऐसी स्थिति है जो आपको मार सकती है।”





Source link

Exit mobile version