राज्य के सांसदों ने सोमवार को घोषणा की कि कैलिफोर्निया के गवर्नर गेविन न्यूजॉम ने दुनिया की सबसे बड़ी आर्टिफिशियल इंटेलिजेंस कंपनियों को सार्वजनिक रूप से सार्वजनिक रूप से खुलासा करने और महत्वपूर्ण घटनाओं की रिपोर्ट करने के लिए कानून के ज़मीन के कानून में हस्ताक्षर किए हैं।
सीनेट बिल 53 ने कैलिफोर्निया के सबसे महत्वपूर्ण कदम को चिह्नित किया है ताकि सिलिकॉन वैली के तेजी से आगे बढ़ने वाले एआई उद्योग को विनियमित किया जा सके, जबकि वैश्विक टेक हब के रूप में अपनी स्थिति को बनाए रखा।
बिल के प्रायोजक राज्य के सीनेटर स्कॉट वीनर ने एक बयान में कहा, “एआई के रूप में परिवर्तनकारी के रूप में एक तकनीक के साथ, हमारे पास एक जिम्मेदारी है कि हम उस नवाचार का समर्थन करें।”
नया कानून वीनर द्वारा एआई सुरक्षा नियमों को स्थापित करने के लिए एक सफल दूसरे प्रयास का प्रतिनिधित्व करता है, जब न्यूजॉम ने तकनीकी उद्योग से उग्र पुशबैक के बाद अपने पिछले बिल, एसबी 1047 को वीटो करने के बाद।
यह ट्रम्प प्रशासन द्वारा राज्यों को एआई नियमों को लागू करने से रोकने के लिए एक असफल प्रयास के बाद भी आता है, इस तर्क के तहत कि वे विनियामक अराजकता पैदा करेंगे और चीन के साथ एक दौड़ में अमेरिकी-निर्मित नवाचार को धीमा कर देंगे।
नए कानून का कहना है कि प्रमुख एआई कंपनियों को बौद्धिक संपदा की रक्षा के लिए सार्वजनिक रूप से अपनी सुरक्षा और सुरक्षा प्रोटोकॉल को फिर से परिभाषित रूप में प्रकट करना होगा।
उन्हें महत्वपूर्ण सुरक्षा घटनाओं की भी रिपोर्ट करनी चाहिए-जिसमें मॉडल-सक्षम हथियारों के खतरे, प्रमुख साइबर हमले, या मॉडल नियंत्रण की हानि शामिल हैं-राज्य के अधिकारियों को 15 दिनों के भीतर।
कानून उन कर्मचारियों के लिए व्हिसलब्लोअर सुरक्षा भी स्थापित करता है जो खतरों या उल्लंघनों के सबूत को प्रकट करते हैं।
वीनर के अनुसार, कैलिफोर्निया का दृष्टिकोण यूरोपीय संघ के लैंडमार्क एआई अधिनियम से अलग है, जिसके लिए सरकारी एजेंसियों को निजी खुलासे की आवश्यकता होती है।
एसबी 53, इस बीच, अधिक से अधिक जवाबदेही सुनिश्चित करने के लिए सार्वजनिक प्रकटीकरण को अनिवार्य करता है।
अधिवक्ताओं ने विश्व-प्रथम प्रावधान के रूप में क्या वर्णन किया है, कानून को कंपनियों को ऐसे उदाहरणों की रिपोर्ट करने की आवश्यकता होती है जहां एआई सिस्टम परीक्षण के दौरान खतरनाक भ्रामक व्यवहार में संलग्न होते हैं।
उदाहरण के लिए, यदि कोई AI प्रणाली Bioweapon निर्माण में सहायता करने से रोकने के लिए डिज़ाइन किए गए नियंत्रणों की प्रभावशीलता के बारे में निहित है, तो डेवलपर्स को इस घटना का खुलासा करना होगा यदि यह भौतिक रूप से भयावह नुकसान जोखिमों को बढ़ाता है।
कानून के पीछे के कार्य समूह का नेतृत्व स्टैनफोर्ड विश्वविद्यालय के फी-फाई ली सहित प्रमुख विशेषज्ञों द्वारा किया गया था, जिसे “एआई की गॉडमदर” के रूप में जाना जाता है।