Site icon Taaza Time 18

अध्ययन में पाया गया है कि चैटजीपीटी, जेमिनी और ग्रोक आधे समय आत्मविश्वास से खतरनाक चिकित्सा सलाह देते हैं

AI_chatbot_1776247114778_1776247114965.jpg


जबकि स्वास्थ्य देखभाल के लिए एआई के उपयोग के बारे में बहुत बहस हुई है, मेडिकल जर्नल बीएमजे ओपन में प्रकाशित एक नए अध्ययन में पाया गया है कि लोकप्रिय एआई चैटबॉट्स द्वारा दी गई लगभग आधी सलाह झूठी हैं। ब्लूमबर्ग द्वारा पहली बार रिपोर्ट किए गए अध्ययन में जेनेरेटिव एआई प्लेटफार्मों से जुड़े बढ़ते स्वास्थ्य जोखिमों को उजागर करने के लिए पांच प्रमुख एआई प्लेटफार्मों का मूल्यांकन किया गया।

अध्ययन में क्या पाया गया?

इस सप्ताह प्रकाशित शोध का परीक्षण किया गया चैटजीपीटी, मिथुनमेटा एआई, ग्रोकऔर डीपसीक और प्रत्येक चैटबॉट से पांच स्वास्थ्य श्रेणियों में 10 प्रश्न पूछे गए। उत्पन्न कुल प्रतिक्रियाओं में से, शोधकर्ताओं ने पाया कि 50 प्रतिशत में समस्याग्रस्त चिकित्सा जानकारी थी। इसके अलावा, अध्ययन में कहा गया है कि उत्पन्न उत्तरों में से लगभग 20 प्रतिशत को अत्यधिक समस्याग्रस्त के रूप में वर्गीकृत किया गया था।

अमेरिका, कनाडा और यूके के शोधकर्ताओं ने यह भी पाया कि कैंसर और टीकों जैसे स्थापित चिकित्सा विषयों से संबंधित बंद प्रश्नों को संभालने में एआई मॉडल ने अपेक्षाकृत अच्छा प्रदर्शन किया। हालाँकि, मॉडलों को ओपन-एंडेड प्रश्नों या पोषण और स्टेम सेल जैसे जटिल स्वास्थ्य विषयों के लिए सुरक्षित उत्तर प्रदान करने में काफी संघर्ष करना पड़ा।

रिपोर्ट में उठाई गई एक प्रमुख चिंता यह है कि नैदानिक ​​​​निर्णय या चिकित्सा निदान जारी करने के लाइसेंस की कमी के बावजूद ये मॉडल अपनाए जाने वाले आधिकारिक स्वर को अपनाते हैं। शोध में कहा गया है कि एआई चैटबॉट्स ने आत्मविश्वास और निश्चितता के साथ स्वास्थ्य संबंधी सवालों के जवाब दिए, तब भी जब वे अपने दावों का समर्थन करने के लिए चिकित्सा संदर्भों की पूरी और सटीक सूची प्रदान नहीं कर सके।

शोधकर्ताओं का कहना है कि 10 प्रश्नों के परीक्षण किए गए चैटबॉट्स में से केवल दो ने एक प्रश्न का उत्तर देने से इनकार कर दिया, जिनमें से दोनों मेटा एआई से आए थे।

अध्ययन के लेखकों का कहना है कि उचित निरीक्षण और सार्वजनिक शिक्षा के बिना इन चैटबॉट्स की तैनाती के लिए एक बड़ा जोखिम यह हो सकता है कि वे गलत सूचना के प्रसार को बढ़ा सकते हैं।

शोधकर्ताओं ने रिपोर्ट में बताया, “ये प्रणालियाँ आधिकारिक-सी लगने वाली लेकिन संभावित रूप से त्रुटिपूर्ण प्रतिक्रियाएँ उत्पन्न कर सकती हैं।” उन्होंने कहा कि निष्कर्ष “महत्वपूर्ण व्यवहार संबंधी सीमाओं और सार्वजनिक-सामना वाले स्वास्थ्य और चिकित्सा संचार में एआई चैटबॉट्स को कैसे तैनात किया जाता है, इसका पुनर्मूल्यांकन करने की आवश्यकता पर प्रकाश डालते हैं”।

नया अध्ययन ऐसे समय में आया है जब एआई कंपनियां स्वास्थ्य सेवा में बड़ी भूमिका निभाने के लिए अपने एआई टूल्स को तैनात कर रही हैं। ओपनएआई ने इस साल की शुरुआत में अपना चैटजीपीटी हेल्थ लॉन्च किया, जो उपयोगकर्ताओं को अधिक जमीनी परिणाम प्राप्त करने के लिए लोकप्रिय एआई चैटबॉट के साथ अपने व्यक्तिगत स्वास्थ्य डेटा को साझा करने की अनुमति देता है।

इस बीच, एंथ्रोपिक ने हेल्थकेयर के लिए क्लाउड भी लॉन्च किया, जो अमेरिका में अपने भुगतान किए गए उपयोगकर्ताओं को अपने मेडिकल रिकॉर्ड को सुरक्षित रूप से कनेक्ट करने की अनुमति देता है।



Source link

Exit mobile version