संयुक्त राज्य भर में, कृत्रिम बुद्धिमत्ता ने कोई नाटकीय प्रवेश नहीं किया है, यह रोजमर्रा की जिंदगी में घुस गया है। जो चीज़ एक समय ईमेल का मसौदा तैयार करने या समीकरणों को हल करने में मदद करती थी, वह अब कई लोगों के लिए एक साथी के करीब है। लोग ऐसे तरीकों से चैटबॉट्स का सहारा ले रहे हैं जो बेहद व्यक्तिगत महसूस कराते हैं, चिंताओं को साझा कर रहे हैं, निराशा को बाहर निकाल रहे हैं, यहां तक कि भावनात्मक उतार-चढ़ाव के दौरान भी काम कर रहे हैं। और इससे एक कठिन प्रश्न खड़ा होता है: जब कोई किसी संवेदनशील क्षण में मशीन की ओर मुड़ता है, तो उसे वास्तव में क्या मिल रहा है?मैसाचुसेट्स इंस्टीट्यूट ऑफ टेक्नोलॉजी (एमआईटी) का एक नया अध्ययन, जो अभी भी सहकर्मी समीक्षा की प्रतीक्षा कर रहा है, सुझाव देता है कि उत्तर सीधा नहीं है, और तकनीकी दुनिया में कई लोग इसे स्वीकार करना चाहेंगे, यह उससे भी अधिक परेशान करने वाला हो सकता है।
नकली दिमाग, वास्तविक जोखिम
वास्तविक व्यक्तियों पर परीक्षण करने के बजाय, शोधकर्ताओं ने सावधानीपूर्वक, नियंत्रित मार्ग अपनाया। उन्होंने एआई प्रोफाइल का उपयोग करके नकली व्यक्तित्वों को प्रोग्राम किया जिसमें अवसाद, चिंता और यहां तक कि आत्महत्या की प्रवृत्ति के लक्षण दिखाई दिए। फिर इन “उपयोगकर्ताओं” ने चैटबॉट्स के साथ बातचीत की, जिससे अध्ययन संभव हो सका।उन्होंने जो पाया वह परेशान करने वाला था। सुरक्षा जाल हमेशा उस समय लागू नहीं होते थे जब उन्हें काम करना चाहिए था, विशेष रूप से बातचीत के शुरुआती चरणों में, जो तब होता है जब हस्तक्षेप सबसे महत्वपूर्ण होता है। हिंसक विचारों सहित कुछ सबसे गंभीर परिदृश्यों में, हानिकारक प्रतिक्रियाएँ जल्दी और बार-बार सामने आईं। अध्ययन ने इसे स्पष्ट रूप से कहा: तथ्य के बाद प्रतिक्रिया करना मनोवैज्ञानिक नुकसान को रोकने के लिए पर्याप्त नहीं है।यह खोज वर्तमान में एआई सुरक्षा को कैसे डिज़ाइन किया गया है, इस मूल धारणा के विपरीत है कि समस्याओं के सामने आने पर उन्हें प्रबंधित किया जा सकता है।
जब बातचीत वास्तविकता को धुंधला करने लगती है
साथ ही, वास्तविक दुनिया की चिंताएं भी सामने आने लगी हैं। ऐसी खबरें आई हैं कि चैटबॉट्स के साथ लंबी, गहन बातचीत के बाद लोगों में गलत धारणाएं विकसित हो रही हैं या गहरी हो रही हैं। द अटलांटिक द्वारा उद्धृत एक व्यापक रूप से चर्चित मुकदमे में यहां तक दावा किया गया है कि चैटजीपीटी के लंबे समय तक उपयोग ने उपयोगकर्ता के “भ्रमपूर्ण विकार” में भूमिका निभाई।इन मामलों पर अभी भी बहस चल रही है, और अभी तक कोई स्पष्ट चिकित्सा सहमति नहीं है। लेकिन वे कुछ बड़ी बात की ओर इशारा करते हैं: एआई अब केवल लोगों को सोचने में मदद नहीं कर रहा है; यह उनके सोचने के तरीके का हिस्सा बनता जा रहा है।अकेलेपन या चिंता से जूझ रहे किसी व्यक्ति के लिए चैटबॉट एक सुरक्षित स्थान की तरह महसूस हो सकता है। लेकिन वही आराम रेखाओं को धुंधला कर सकता है। जब एक सिस्टम को सहमत और उत्तरदायी होने के लिए डिज़ाइन किया जाता है, तो यह उपयोगकर्ता के पहले से ही विश्वास को मजबूत कर सकता है, भले ही वे विश्वास विकृत हों।इस मुद्दे पर बातचीत में “एआई साइकोसिस” शब्द दिखाई देने लगा है। यह कोई आधिकारिक निदान नहीं है, लेकिन यह इस बात को लेकर बढ़ती बेचैनी को दर्शाता है कि ये अंतःक्रियाएँ किस ओर ले जा सकती हैं।
डिज़ाइन ट्रेड-ऑफ़ को कोई भी नज़रअंदाज नहीं कर सकता
मुद्दे के मूल में एक कठिन समझौता है। चैटबॉट मददगार, विनम्र और आकर्षक होने के लिए बनाए गए हैं। वे बातचीत को चालू रखने के लिए हैं।लेकिन भावनात्मक रूप से संवेदनशील स्थितियों में, वह डिज़ाइन उल्टा पड़ सकता है। प्रशिक्षित चिकित्सकों के विपरीत, जो जानते हैं कि हानिकारक सोच को कब चुनौती देनी है, एआई सिस्टम स्वाभाविक रूप से पीछे नहीं हटते हैं। वे उपयोगकर्ता के नेतृत्व का अनुसरण करते हैं।व्यवहार में, इसका मतलब किसी व्यक्ति के परिप्रेक्ष्य की धीरे-धीरे पुष्टि करना हो सकता है, भले ही वह परिप्रेक्ष्य वास्तविकता पर आधारित न हो।एमआईटी शोधकर्ताओं का तर्क है कि यह सिर्फ एक छोटी सी खामी नहीं है, यह इन प्रणालियों के काम करने के तरीके में अंतर्निहित है। मौजूदा सुरक्षा उपाय कुछ गलत होने के बाद प्रतिक्रिया देने लगते हैं। वे कहते हैं कि जो कमी है, वह जोखिम बढ़ने से पहले उसका अनुमान लगाने की क्षमता है।
आश्वासन, लेकिन कुछ स्पष्ट उत्तर
OpenAI जैसी कंपनियों का कहना है कि वे इन चुनौतियों से अवगत हैं। संगठन ने कहा है कि उसने 100 से अधिक मानसिक स्वास्थ्य विशेषज्ञों के साथ काम किया है ताकि उसके सिस्टम संवेदनशील स्थितियों को संभालने के तरीके में सुधार कर सकें, और यह अपने सुरक्षा उपायों को परिष्कृत करना जारी रखता है।फिर भी, इनमें से अधिकांश काम बंद दरवाजों के पीछे होता है। स्वतंत्र निरीक्षण या व्यापक रूप से स्वीकृत मानकों के बिना, यह मापना कठिन है कि ये सुरक्षा वास्तव में कितनी प्रभावी हैं।वाशिंगटन में सांसदों ने ध्यान देना शुरू कर दिया है, और एआई विनियमन के आसपास की बातचीत में मानसिक स्वास्थ्य जोखिम भी शामिल होने लगे हैं। लेकिन अभी, ठोस नियम सीमित हैं—और प्रौद्योगिकी नीति की तुलना में कहीं अधिक तेजी से आगे बढ़ रही है।
एक बदलाव जो इंतज़ार नहीं कर सकता
एमआईटी अध्ययन से एक बात स्पष्ट होती है: समस्याओं के सामने आने का इंतजार करना पर्याप्त नहीं है। शोधकर्ता अधिक सक्रिय दृष्टिकोण का आह्वान कर रहे हैं, परीक्षण कर रहे हैं कि वास्तविक जीवन में उन परिदृश्यों के सामने आने से पहले एआई भावनात्मक रूप से तीव्र या अस्पष्ट स्थितियों में कैसे व्यवहार करता है।इसका मतलब होगा प्राथमिकताओं पर पुनर्विचार करना। अब तक, मुख्य रूप से एआई को तेज, स्मार्ट और अधिक व्यापक रूप से उपलब्ध कराने पर ध्यान केंद्रित किया गया है। लेकिन जैसे-जैसे ये प्रणालियाँ लोगों के भावनात्मक जीवन में गहराई तक प्रवेश करती हैं, मनोवैज्ञानिक सुरक्षा एक विचार बनकर रह नहीं सकती।
एक डिजिटल साथी का दांव
यह सब ऐसे समय में हुआ है जब अमेरिका पहले से ही मानसिक स्वास्थ्य तनाव का सामना कर रहा है, लाखों लोग चिंता, अवसाद या देखभाल तक सीमित पहुंच से जूझ रहे हैं। उस अंतराल में एक नई तरह की उपस्थिति ने कदम रखा है, जो हमेशा उपलब्ध, अंतहीन धैर्यवान और बात करने में आसान है।लेकिन साथ ही, महत्वपूर्ण रूप से, मानव नहीं। एमआईटी अध्ययन एआई को छोड़ने का सुझाव नहीं देता है। यह जो उजागर करता है वह कुछ अधिक सूक्ष्म और अधिक जरूरी है: जब प्रौद्योगिकी लोगों के महसूस करने, सोचने और दुनिया को समझने के तरीके को आकार देने लगती है, तो दांव गहराई से मानवीय हो जाते हैं।और उन कमजोर क्षणों में, एक मशीन क्या कहती है, या कहने में विफल रहती है, वह हमारी अपेक्षा से अधिक मायने रख सकती है।