ओपनएआई के मुख्य कार्यकारी सैम ऑल्टमैन ने सुझाव दिया है कि कृत्रिम बुद्धिमत्ता में अगली बड़ी छलांग तेज तर्क क्षमताओं से नहीं, बल्कि कहीं अधिक मौलिक चीज से आएगी: स्मृति।
प्रौद्योगिकी पत्रकार एलेक्स कांट्रोविट्ज़ के साथ हालिया पॉडकास्ट पर बोलते हुए, ऑल्टमैन एक ऐसे भविष्य की रूपरेखा तैयार की गई जिसमें एआई सिस्टम किसी व्यक्ति के जीवनकाल में बड़ी मात्रा में व्यक्तिगत डेटा को बनाए रखने और उससे सीखने में सक्षम होगा, जो मूल रूप से एक डिजिटल व्यक्तिगत सहायक के विचार को नया आकार देगा।
अगली छलांग के रूप में स्मृति, तर्क नहीं
ऑल्टमैन के अनुसार, आज के एआई उपकरण तर्कपूर्ण कार्यों में पहले से ही मजबूत हैं, लेकिन जब दीर्घकालिक याद की बात आती है तो वे कमजोर पड़ जाते हैं। उन्होंने तर्क दिया कि मनुष्य सबसे अच्छे निजी सहायक बने रहते हैं क्योंकि वे संदर्भ और बारीकियों को समझते हैं, फिर भी वे विवरणों को लगातार याद रखने के लिए संघर्ष करते हैं।
दूसरी ओर, AI में वह सीमा नहीं है। ऑल्टमैन ने कहा कि वास्तविक अवसर ऐसी प्रणालियों के निर्माण में निहित है जो बातचीत और ईमेल से लेकर दस्तावेजों और प्राथमिकताओं तक उपयोगकर्ता द्वारा समय के साथ साझा की गई हर चीज को याद रख सके। ऐसी सतत स्मृति अनुमति दे सकती है पैटर्न की पहचान करने के लिए एआई और ऐसी ज़रूरतें हैं जिन्हें लोग स्वयं कभी भी सचेत रूप से व्यक्त नहीं कर सकते हैं।
उन्होंने संकेत दिया कि ओपनएआई सक्रिय रूप से इस दृष्टिकोण की दिशा में काम कर रहा है, यह सुझाव देते हुए कि अधिक उन्नत, मेमोरी-संचालित व्यक्तिगत सहायक 2026 की शुरुआत में उभरना शुरू हो सकते हैं।
‘निजी सहायक’ के अर्थ में बदलाव
ऑल्टमैन ने लगातार मेमोरी को उपभोक्ता एआई के लिए एक महत्वपूर्ण मोड़ बताया। अलग-अलग संकेतों पर प्रतिक्रिया देने के बजाय, भविष्य की प्रणालियाँ वर्षों के संचित संदर्भ के आधार पर गहराई से वैयक्तिकृत परिणाम प्रदान कर सकती हैं।
उनके विचार में, यह AI को एक से आगे ले जाएगा प्रतिक्रियाशील उपकरण एक सक्रिय सहायक के रूप में, जो जरूरतों का अनुमान लगाने और सटीकता के स्तर के साथ प्रतिक्रियाओं को तैयार करने में सक्षम है जिसे वर्तमान सिस्टम हासिल नहीं कर सकता है।
चर्चा ओपनएआई की दीर्घकालिक रणनीति के बारे में व्यापक बातचीत का हिस्सा बनी, जिसमें बुनियादी ढांचे के विस्तार, एआई-संचालित उपकरणों और अंततः कृत्रिम सामान्य बुद्धि तक पहुंचने की कंपनी की महत्वाकांक्षा पर भी चर्चा हुई।
‘कोड रेड’ और बढ़ती प्रतिस्पर्धा
पॉडकास्ट के दौरान, ऑल्टमैन ने आंतरिक “कोड रेड” अलर्ट की रिपोर्टों को भी संबोधित किया ओपनएआई, एआई क्षेत्र में बढ़ती प्रतिस्पर्धा के कारण। उन्होंने इन क्षणों को घबराहट के रूप में नहीं, बल्कि सतर्क और उत्तरदायी बने रहने की एक सोची-समझी रणनीति के रूप में तैयार किया।
उन्होंने सुझाव दिया कि जब कोई विश्वसनीय ख़तरा दिखाई दे तो सतर्क रहना और तेज़ी से आगे बढ़ना संगठन के लिए स्वस्थ है। उन्होंने कहा कि इसी तरह की स्थितियाँ पहले भी आ चुकी हैं, जिसमें इस साल की शुरुआत भी शामिल है जब डीपसीक जैसे नए प्रतिस्पर्धियों ने ध्यान आकर्षित किया था।
ऑल्टमैन ने कहा कि इस तरह के आंतरिक अलार्म एक आवर्ती सुविधा बनने की संभावना है, संभवतः वर्ष में एक या दो बार, क्योंकि ओपनएआई तेजी से बढ़ते बाजार में अपनी स्थिति बनाए रखना चाहता है। जबकि उन्होंने इसके मुख्य क्षेत्र में जीत के महत्व पर जोर दिया, उन्होंने यह भी स्वीकार किया कि ओपनएआई के साथ अन्य कंपनियां भी सफल हो सकती हैं।
ChatGPT उपयोगकर्ताओं के लिए एक उत्सवपूर्ण आश्चर्य
अलग से, ऑल्टमैन ने चैटजीपीटी उपयोगकर्ताओं के लिए एक उत्सवपूर्ण आश्चर्य के साथ ऑनलाइन जिज्ञासा जगाई है। सप्ताहांत में, उन्होंने एक्स पर एक गुप्त संदेश पोस्ट किया जिसने लोगों को एकल इमोजी का उपयोग करके चैटबॉट के साथ बातचीत करने के लिए प्रोत्साहित किया।
उपयोगकर्ताओं को जल्द ही पता चला कि ChatGPT पर एक उपहार इमोजी भेजने से छिपी हुई क्रिसमस-थीम वाली बातचीत खुल जाती है। चैटबॉट उपयोगकर्ताओं को सेल्फी अपलोड करने या लेने के लिए प्रेरित करके प्रतिक्रिया देता है, जिसके बाद अनुरोध ओपनएआई के वीडियो जेनरेशन टूल सोरा को सौंप दिया जाता है।
सोरा फिर एक छोटा, वैयक्तिकृत क्रिसमस वीडियो बनाती है। उत्सव संदेश को उन विवरणों का उपयोग करके तैयार किया गया है जो चैटजीपीटी ने उपयोगकर्ता की पिछली बातचीत से सीखे हैं, जो व्यक्तिगत अनुभवों की एक झलक पेश करता है कि अधिक उन्नत एआई मेमोरी अंततः नियमित हो सकती है।
चाबी छीनना
- एआई की भविष्य की सफलताएं तर्क के बजाय स्मृति क्षमताओं पर ध्यान केंद्रित करेंगी।
- सतत स्मृति एआई इंटरैक्शन में वैयक्तिकरण को बढ़ा सकती है, जिससे वे अधिक प्रासंगिक बन सकते हैं।
- बढ़ती प्रतिस्पर्धा के बीच ओपनएआई खुद को एआई क्षेत्र में नेतृत्व करने के लिए तैयार कर रहा है।