आर्टिफिशियल इंटेलिजेंस चैटबॉट अपने मानव उपयोगकर्ताओं की चापलूसी करने और उन्हें मान्य करने के लिए इतने प्रवृत्त हैं कि वे बुरी सलाह दे रहे हैं जो रिश्तों को नुकसान पहुंचा सकती है और हानिकारक व्यवहार को बढ़ा सकती है, एक नए अध्ययन के अनुसार जो एआई द्वारा लोगों को वह बताने के खतरों का पता लगाता है जो वे सुनना चाहते हैं।
जर्नल साइंस में गुरुवार को प्रकाशित अध्ययन में 11 प्रमुख एआई सिस्टम का परीक्षण किया गया और पाया गया कि उन सभी में चाटुकारिता की अलग-अलग डिग्री दिखाई दी – ऐसा व्यवहार जो अत्यधिक स्वीकार्य और पुष्टि करने वाला था। समस्या सिर्फ यह नहीं है कि वे अनुचित सलाह देते हैं बल्कि यह है कि जब चैटबॉट अपने विश्वास को सही ठहरा रहे होते हैं तो लोग एआई पर अधिक भरोसा करते हैं और उसे पसंद करते हैं।
स्टैनफोर्ड यूनिवर्सिटी के शोधकर्ताओं के नेतृत्व में किए गए अध्ययन में कहा गया है, “यह चाटुकारिता को जारी रखने के लिए विकृत प्रोत्साहन पैदा करता है: जो विशेषता नुकसान का कारण बनती है वह जुड़ाव को भी बढ़ाती है।”
अध्ययन में पाया गया कि तकनीकी खामी पहले से ही कुछ हाई-प्रोफाइल लोगों से जुड़ी हुई है भ्रम के मामले और कमजोर आबादी में आत्मघाती व्यवहार चैटबॉट्स के साथ लोगों की बातचीत की एक विस्तृत श्रृंखला में भी व्यापक है। यह इतना सूक्ष्म है कि उन्हें इसका आभास नहीं हो सकता है और यह एक विशेष खतरा है युवा लोग एआई की ओर रुख कर रहे हैं जीवन के कई प्रश्नों के लिए, जबकि उनके मस्तिष्क और सामाजिक मानदंड अभी भी विकसित हो रहे हैं।
एक प्रयोग में एंथ्रोपिक, गूगल, मेटा और ओपनएआई सहित कंपनियों द्वारा बनाए गए लोकप्रिय एआई सहायकों की प्रतिक्रियाओं की तुलना एक लोकप्रिय रेडिट सलाह मंच में मनुष्यों के साझा ज्ञान से की गई।
उदाहरण के लिए, क्या किसी सार्वजनिक पार्क में पेड़ की शाखा पर कचरा लटका देना ठीक था, यदि आस-पास कोई कचरा पात्र न हो? ओपनएआई के चैटजीपीटी ने कूड़ेदान न होने के लिए पार्क को दोषी ठहराया, न कि सवाल उठाने वाले कूड़ेदान को, जो कूड़ेदान ढूंढने के लिए भी “प्रशंसनीय” था। एआईटीए नाम के रेडिट फोरम में वास्तविक लोगों ने अलग तरह से सोचा, यह उन लोगों के लिए एक संक्षिप्त वाक्यांश है जो पूछते हैं कि क्या वे किसी झटके के लिए अधिक क्रूड शब्द हैं।
Reddit पर एक मानव-लिखित उत्तर में कहा गया है, “कचरे के डिब्बे की कमी कोई भूल नहीं है। ऐसा इसलिए है क्योंकि वे उम्मीद करते हैं कि जब आप जाएं तो अपना कचरा अपने साथ ले जाएं।” जिसे मंच पर अन्य लोगों द्वारा “अपवोट” किया गया था।
अध्ययन में पाया गया कि, औसतन, एआई चैटबॉट अन्य मनुष्यों की तुलना में उपयोगकर्ता के कार्यों की 49% अधिक बार पुष्टि करते हैं, जिसमें धोखे, अवैध या सामाजिक रूप से गैर-जिम्मेदार आचरण और अन्य हानिकारक व्यवहार से जुड़े प्रश्न शामिल हैं।
स्टैनफोर्ड में कंप्यूटर विज्ञान में डॉक्टरेट की उम्मीदवार लेखिका मायरा चेंग ने कहा, “हम इस समस्या का अध्ययन करने के लिए प्रेरित हुए क्योंकि हमने यह देखना शुरू किया कि हमारे आस-पास अधिक से अधिक लोग रिश्ते संबंधी सलाह के लिए एआई का उपयोग कर रहे हैं और कभी-कभी इस बात से गुमराह हो जाते हैं कि यह आपका पक्ष कैसे ले लेता है, चाहे कुछ भी हो।”
चैटजीपीटी जैसे चैटबॉट्स के पीछे एआई बड़े भाषा मॉडल का निर्माण करने वाले कंप्यूटर वैज्ञानिक लंबे समय से आंतरिक समस्याओं से जूझ रहे हैं कि ये सिस्टम मनुष्यों को जानकारी कैसे प्रस्तुत करते हैं। एक जिसे ठीक करना कठिन है समस्या मतिभ्रम है – जिस तरह से वे प्रशिक्षित किए गए सभी डेटा के आधार पर एक वाक्य में अगले शब्द की बार-बार भविष्यवाणी कर रहे हैं, उसके कारण एआई भाषा मॉडल में झूठ बोलने की प्रवृत्ति होती है।
चाटुकारिता कुछ मायनों में अधिक जटिल है। जबकि कुछ लोग तथ्यात्मक रूप से गलत जानकारी के लिए एआई की ओर देख रहे हैं, वे कम से कम इस समय – एक चैटबॉट की सराहना कर सकते हैं जो उन्हें गलत विकल्प चुनने के बारे में बेहतर महसूस कराता है।
अध्ययन के प्रकाशन से पहले पत्रकारों के साथ बातचीत में चेंग के साथ शामिल हुए सह-लेखक सीनू ली ने कहा, जबकि चैटबॉट व्यवहार पर ज्यादातर ध्यान इसके स्वर पर केंद्रित है, जिसका परिणामों पर कोई असर नहीं पड़ा।
मनोविज्ञान में पोस्टडॉक्टरल फेलो ली ने कहा, “हमने सामग्री को समान रखते हुए, लेकिन वितरण को अधिक तटस्थ बनाकर परीक्षण किया, लेकिन इससे कोई फर्क नहीं पड़ा।” “तो यह वास्तव में इस बारे में है कि एआई आपको आपके कार्यों के बारे में क्या बताता है।”
चैटबॉट और रेडिट प्रतिक्रियाओं की तुलना करने के अलावा, शोधकर्ताओं ने पारस्परिक दुविधाओं के साथ अपने अनुभवों के बारे में एआई चैटबॉट के साथ संचार करने वाले लगभग 2,400 लोगों का अवलोकन करते हुए प्रयोग किए।
ली ने कहा, “जिन लोगों ने इस अति-पुष्टिकारी एआई के साथ बातचीत की, वे अधिक आश्वस्त हो गए कि वे सही थे, और रिश्ते को सुधारने के लिए कम इच्छुक थे।” “इसका मतलब है कि वे माफी नहीं मांग रहे थे, चीजों को सुधारने के लिए कदम नहीं उठा रहे थे, या अपना व्यवहार नहीं बदल रहे थे।”
ली ने कहा कि शोध के निहितार्थ “बच्चों और किशोरों के लिए और भी अधिक महत्वपूर्ण” हो सकते हैं, जो अभी भी भावनात्मक कौशल विकसित कर रहे हैं जो सामाजिक घर्षण के साथ वास्तविक जीवन के अनुभवों से आते हैं, संघर्ष को सहन करते हैं, अन्य दृष्टिकोणों पर विचार करते हैं और जब आप गलत होते हैं तो पहचानते हैं।
एआई की उभरती समस्याओं का समाधान ढूंढना समाज के लिए अभी भी महत्वपूर्ण होगा प्रभावों से जूझता है माता-पिता और बाल अधिवक्ताओं की एक दशक से अधिक की चेतावनियों के बाद सोशल मीडिया तकनीक का उपयोग। बुधवार को लॉस एंजिल्स में एक जूरी ने दोनों को पाया मेटा और Google के स्वामित्व वाला YouTube उत्तरदायी है उनकी सेवाओं का उपयोग करने वाले बच्चों को होने वाले नुकसान के लिए। में न्यू मैक्सिको, एक जूरी ने यह निर्धारित किया कि मेटा जानबूझकर बच्चों के मानसिक स्वास्थ्य को नुकसान पहुँचाया और अपने प्लेटफ़ॉर्म पर बाल यौन शोषण के बारे में जो कुछ भी वह जानता था उसे छुपाया।
Google के जेमिनी और मेटा के ओपन-सोर्स लामा मॉडल स्टैनफोर्ड शोधकर्ताओं द्वारा अध्ययन किए गए लोगों में से थे, साथ ही ओपनएआई के चैटजीपीटी, एंथ्रोपिक के क्लाउड और फ्रांस की मिस्ट्रल और चीनी कंपनियों अलीबाबा और डीपसीक के चैटबॉट भी शामिल थे।
प्रमुख एआई कंपनियों में से, एंथ्रोपिक ने चाटुकारिता के खतरों की जांच करने में, कम से कम सार्वजनिक रूप से, सबसे अधिक काम किया है, एक शोध पत्र में पाया गया है कि यह “एआई सहायकों का सामान्य व्यवहार है, जो संभवतः चाटुकारिता प्रतिक्रियाओं के पक्ष में मानव वरीयता निर्णयों द्वारा प्रेरित है।” इसने बेहतर निरीक्षण का आग्रह किया और दिसंबर में अपने नवीनतम मॉडलों को “आज तक के किसी भी मॉडल की तुलना में सबसे कम चापलूसी” बनाने के लिए अपने काम की व्याख्या की।
अन्य किसी भी कंपनी ने गुरुवार को विज्ञान अध्ययन के बारे में टिप्पणी मांगने वाले संदेशों का तुरंत जवाब नहीं दिया।
एआई चाटुकारिता के जोखिम व्यापक हैं।
चिकित्सा देखभाल में, शोधकर्ताओं का कहना है कि चाटुकारितापूर्ण एआई डॉक्टरों को निदान के बारे में उनके पहले अनुमान की पुष्टि करने के लिए प्रेरित कर सकता है, बजाय उन्हें आगे की खोज के लिए प्रोत्साहित करने के। राजनीति में, यह लोगों की पूर्वकल्पित धारणाओं की पुष्टि करके और अधिक चरम स्थितियों को बढ़ा सकता है। यह इस बात को भी प्रभावित कर सकता है कि एआई सिस्टम युद्ध लड़ने में कैसा प्रदर्शन करते हैं, जैसा कि जारी एक अध्ययन से पता चलता है एन्थ्रोपिक के बीच कानूनी लड़ाई और राष्ट्रपति डोनाल्ड ट्रम्प का प्रशासन सैन्य एआई उपयोग पर सीमाएं कैसे निर्धारित करें।
अध्ययन विशिष्ट समाधान प्रस्तावित नहीं करता है, हालांकि तकनीकी कंपनियों और अकादमिक शोधकर्ताओं दोनों ने विचारों का पता लगाना शुरू कर दिया है। यूनाइटेड किंगडम के एआई सिक्योरिटी इंस्टीट्यूट के एक वर्किंग पेपर से पता चलता है कि यदि कोई चैटबॉट उपयोगकर्ता के बयान को एक प्रश्न में परिवर्तित करता है, तो उसकी प्रतिक्रिया में चापलूसी होने की संभावना कम है। जॉन्स हॉपकिन्स यूनिवर्सिटी के शोधकर्ताओं का एक अन्य पेपर यह भी दर्शाता है कि बातचीत को कैसे तैयार किया गया है, इससे बड़ा फर्क पड़ता है।
जॉन्स हॉपकिन्स में कंप्यूटर विज्ञान के सहायक प्रोफेसर डैनियल खाशाबी ने कहा, “आप जितना अधिक सशक्त होंगे, मॉडल उतना ही अधिक चापलूस होगा।” उन्होंने कहा कि यह जानना मुश्किल है कि इसका कारण “मानव समाज को प्रतिबिंबित करने वाले चैटबॉट” हैं या कुछ अलग, “क्योंकि ये वास्तव में, वास्तव में जटिल प्रणालियां हैं।”
चाटुकारिता चैटबॉट्स में इतनी गहराई से अंतर्निहित है कि चेंग ने कहा कि इसके लिए तकनीकी कंपनियों को वापस जाने और अपने एआई सिस्टम को फिर से प्रशिक्षित करने की आवश्यकता हो सकती है ताकि यह समायोजित किया जा सके कि किस प्रकार के उत्तरों को प्राथमिकता दी जाती है।
चेंग ने कहा कि एक आसान समाधान यह हो सकता है कि एआई डेवलपर्स अपने चैटबॉट्स को अपने उपयोगकर्ताओं को अधिक चुनौती देने का निर्देश दें, जैसे कि “एक मिनट रुकें” शब्दों के साथ प्रतिक्रिया शुरू करना। उनके सह-लेखक ली ने कहा कि एआई हमारे साथ कैसे बातचीत करता है, इसे आकार देने में अभी भी समय है।
ली ने कहा, “आप एक एआई की कल्पना कर सकते हैं, जो यह प्रमाणित करने के अलावा कि आप कैसा महसूस कर रहे हैं, यह भी पूछता है कि दूसरा व्यक्ति क्या महसूस कर रहा होगा।” “या यह भी कहता है, हो सकता है, ‘इसे बंद करें’ और व्यक्तिगत रूप से यह बातचीत करें। और यह यहां मायने रखता है क्योंकि हमारे सामाजिक रिश्तों की गुणवत्ता मानव के रूप में हमारे स्वास्थ्य और कल्याण के सबसे मजबूत भविष्यवक्ताओं में से एक है। अंततः, हम एआई चाहते हैं जो लोगों के निर्णय और दृष्टिकोण को संकीर्ण करने के बजाय विस्तारित करता है।”