(ब्लूमबर्ग ओपिनियन) – आर्टिफिशियल इंटेलिजेंस के पाठ्यक्रम को बदलने की कोशिश करने वाले किसी भी व्यक्ति के लिए शस्त्रागार में एक सामान्य उपकरण है: विराम। दो साल पहले, एलोन मस्क और अन्य तकनीकी नेताओं ने मानवता की बेहतर सुरक्षा के लिए छह महीने के लिए अपने एआई विकास में देरी करने के लिए टेक कंपनियों को एक खुला पत्र प्रकाशित किया। अब लक्ष्य स्थानांतरित हो गया है। मनुष्यों की तुलना में कंप्यूटरों की तुलना में कंप्यूटर बनाने के लिए एक दौड़ में पीछे रहने के बढ़ते डर के बीच, यूरोपीय कॉर्पोरेट नेताओं का एक समूह यूरोपीय संघ में “पॉज़” बंदूक की ओर इशारा कर रहा है, जो दुनिया के स्व-स्टाइल एआई पुलिस वाले हैं।
टेक ब्रदर्स की तरह, जो दो साल पहले एआई पर लगाम लगाना चाहते थे, यह एक कुंद सुझाव है जो इस बात की बारीकियों को याद करता है कि वह क्या संबोधित करने की कोशिश कर रहा है। एआई नियमों पर एक कंबल विराम यूरोप को अमेरिका और चीन के साथ पकड़ने में मदद नहीं करेगा, क्योंकि 45 से अधिक कंपनियां अब तर्क देती हैं। यह धन के आसपास एक अधिक मौलिक समस्या को नजरअंदाज करता है कि इस क्षेत्र के तकनीकी स्टार्टअप को अपने बड़े सिलिकॉन वैली प्रतिद्वंद्वियों के साथ प्रतिस्पर्धा करने और प्रतिस्पर्धा करने की सख्त आवश्यकता है। यह विचार कि यूरोप को एक प्रर्वतक और एक नियामक होने के बीच चयन करना है, बिग टेक लॉबिस्टों द्वारा सफलतापूर्वक एक कथा है, जो एक हल्के नियामक स्पर्श से सबसे अधिक लाभान्वित होंगे।
लेकिन इसका मतलब यह नहीं है कि एआई अधिनियम स्वयं एक विराम के साथ नहीं कर सकता है, यद्यपि एएसएमएल होल्डिंग एनवी, एयरबस एसई और मिस्ट्रल एआई सहित फर्मों का एक संकीर्ण संस्करण गुरुवार को प्रकाशित “स्टॉप द क्लॉक” पत्र में बुलाया गया था, जो यह मांग करता है कि यूरोपीय आयोग के अध्यक्ष, उर्सुला वॉन डेर लेयेन, पोस्टपोन नियमों को कहते हैं, जो कि अनियंत्रित और बढ़ते हैं। ”
उस पर उनके पास एक बिंदु है, लेकिन केवल 180-पृष्ठ अधिनियम के हिस्से के लिए, जिसे जल्दबाजी में अंतिम वार्ता में जोड़ा गया था, जो कि “सामान्य-उद्देश्य” एआई मॉडल को चैटगेट जैसे मॉडल को संबोधित करता है। अपने मूल रूप में अधिनियम को शुरू में 2021 में तैयार किया गया था, लगभग दो साल पहले चैट ने उदार एआई बूम को उगल दिया था। इसका उद्देश्य रोगों का निदान करने, वित्तीय सलाह देने या महत्वपूर्ण बुनियादी ढांचे को नियंत्रित करने के लिए उपयोग किए जाने वाले उच्च-जोखिम वाले एआई प्रणालियों को विनियमित करना था। पानी की आपूर्ति को नियंत्रित करने के लिए स्वास्थ्य लाभ के लिए किसी व्यक्ति की पात्रता का निर्धारण करने के लिए एआई का उपयोग करने के लिए, एसी में उन प्रकार के अनुप्रयोगों को स्पष्ट रूप से परिभाषित किया गया है। इस तरह के एआई को तैनात होने से पहले, कानून के लिए आवश्यक है कि इसे टेक के रचनाकारों और इसे तैनात करने वाली कंपनियों दोनों द्वारा सावधानीपूर्वक वीटेट किया जाए।
यदि कोई अस्पताल चिकित्सा स्थितियों का निदान करने के लिए एआई प्रणाली को तैनात करना चाहता है, तो इसे अधिनियम के तहत “उच्च जोखिम वाले एआई” माना जाएगा। एआई प्रदाता को न केवल सटीकता और पूर्वाग्रहों के लिए अपने मॉडल का परीक्षण करने की आवश्यकता होगी, बल्कि अस्पताल में स्वयं मनुष्यों को समय के साथ अपनी सटीकता की निगरानी के लिए सिस्टम की देखरेख करना चाहिए। ये उचित और सीधी आवश्यकताएं हैं।
लेकिन सामान्य-उद्देश्य एआई सिस्टम पर एक नए खंड में नियम कम स्पष्ट हैं, 2023 में चैट और इमेज-जनरेटर मिडजॉर्नी जैसे जेनेरिक एआई मॉडल के जवाब में एक साथ एक साथ। जब उन उत्पादों ने दृश्य पर विस्फोट किया, तो एआई अचानक कार्यों की एक अनंत सरणी को अंजाम दे सकता था, और ब्रसेल्स ने संबोधित किया कि उनके नियमों को व्यापक बनाकर और दुर्भाग्य से, अस्पष्ट।
समस्याएं उस अनुभाग में अधिनियम के पृष्ठ 83 पर शुरू होती हैं, जो उस बिंदु की पहचान करने का दावा करती है जिस पर चैट जैसे एक सामान्य उद्देश्य प्रणाली एक प्रणालीगत जोखिम पैदा करती है: जब इसे 10 से अधिक 25 वीं शक्ति – या 10^25 – फ्लोटिंग पॉइंट ऑपरेशंस (फ्लॉप) का उपयोग करके प्रशिक्षित किया गया है, जिसका अर्थ है कि प्रशिक्षण चलाने वाले कंप्यूटरों ने इस प्रक्रिया के दौरान कम से कम 10,000,000,000,000,000,000,000 किलोचन किए।
अधिनियम यह नहीं समझाता है कि यह संख्या सार्थक क्यों है या क्या यह इतना खतरनाक है। इसके अलावा, मैसाचुसेट्स इंस्टीट्यूट ऑफ टेक्नोलॉजी के शोधकर्ताओं ने दिखाया है कि उच्च गुणवत्ता वाले डेटा के साथ प्रशिक्षित छोटे मॉडल बहुत बड़े लोगों की क्षमताओं को प्रतिद्वंद्वी कर सकते हैं। “फ्लॉप” जरूरी नहीं कि एक मॉडल की शक्ति – या जोखिम – और उन्हें एक मीट्रिक के रूप में उपयोग करने से बड़ी तस्वीर को याद किया जा सकता है।
इस तरह के तकनीकी थ्रेसहोल्ड का उपयोग इस बात का उपयोग किया जाता है कि “सामान्य-उद्देश्य एआई” या “उच्च-प्रभाव क्षमताओं” का अर्थ क्या है, यह परिभाषित करने के लिए किया जाता है, जिससे उन्हें व्याख्या के लिए खुला छोड़ दिया जाता है और कंपनियों के लिए निराशाजनक रूप से अस्पष्ट होता है।
“ये गहरी वैज्ञानिक समस्याएं हैं,” लैटिसफ्लो एआई के मुख्य कार्यकारी अधिकारी पेटर संसकोव कहते हैं, जो एआई अधिनियम जैसे नियमों के अनुपालन में कंपनियों का मार्गदर्शन करता है। “बेंचमार्क अधूरे हैं।”
ब्रसेल्स को अपने पूरे एआई कानून को रोकना नहीं चाहिए। जब अगस्त 2026 में वे रोल आउट करते हैं, तो स्वास्थ्य देखभाल और महत्वपूर्ण बुनियादी ढांचे में उच्च जोखिम वाले एआई प्रणालियों पर नियमों को लागू करने के लिए यह अनुसूची जारी रखना चाहिए। त्सकोव ने उन्हें सही पाने के लिए दो और वर्षों की सिफारिश की।
यूरोप का एआई कानून एआई उद्योग में कुछ बहुत जरूरी पारदर्शिता पैदा कर सकता है, और क्या यह अगले महीने रोल आउट करने के लिए था, ओपनआईएआई जैसी कंपनियों को अपने प्रशिक्षण डेटा और प्रक्रियाओं के गुप्त विवरण साझा करने के लिए मजबूर किया जाएगा। यह स्वतंत्र नैतिकता के शोधकर्ताओं के लिए एक आशीर्वाद होगा जो यह अध्ययन करने की कोशिश कर रहा है कि मानसिक स्वास्थ्य जैसे क्षेत्रों में एआई कितना हानिकारक हो सकता है। लेकिन लाभ अल्पकालिक होंगे यदि धुंधले नियमों ने कंपनियों को अपनी ऊँची एड़ी के जूते को खींचने या बाहर निकलने के लिए कानूनी खामियों को खोजने की अनुमति दी।
अधिनियम के सबसे अस्पष्ट हिस्सों पर एक सर्जिकल विराम ब्रसेल्स को कानूनी अराजकता से बचने में मदद करेगा, और सुनिश्चित करें कि जब नियम आते हैं, तो वे काम करते हैं।
ब्लूमबर्ग की राय से अधिक:
यह कॉलम लेखक के व्यक्तिगत विचारों को दर्शाता है और जरूरी नहीं कि संपादकीय बोर्ड या ब्लूमबर्ग एलपी और उसके मालिकों की राय को प्रतिबिंबित करता है।
परमी ओल्सन एक ब्लूमबर्ग ओपिनियन कॉलमिस्ट कवरिंग टेक्नोलॉजी है। द वॉल स्ट्रीट जर्नल और फोर्ब्स के लिए एक पूर्व रिपोर्टर, वह “वर्चस्व: एआई, चैटगिप्ट और द रेस जो दुनिया को बदल देगी।”
इस तरह की और कहानियाँ उपलब्ध हैं Bloomberg.com/opinion

