Site icon Taaza Time 18

ऑस्ट्रेलियाई वकील ने हत्या के मामले में एआई-जनित त्रुटियों के लिए माफ़ी मांगी

tech1_1734536428801_1734536438047.jpg


मेलबर्न, ऑस्ट्रेलिया (एपी) – ऑस्ट्रेलिया में एक वरिष्ठ वकील ने एक हत्या के मामले में दलीलें दाखिल करने के लिए एक न्यायाधीश से माफी मांगी है जिसमें कृत्रिम बुद्धिमत्ता द्वारा उत्पन्न नकली उद्धरण और गैर-मौजूद मामले के फैसले शामिल थे।

विक्टोरिया राज्य के सर्वोच्च न्यायालय में हुई बड़ी भूल अनेक दुर्घटनाओं में से एक है एआई ने न्याय प्रणालियों में बाधा उत्पन्न की है दुनिया भर में।

एसोसिएटेड प्रेस द्वारा शुक्रवार को देखे गए अदालती दस्तावेजों के अनुसार, बचाव पक्ष के वकील ऋषि नथवानी, जिनके पास किंग्स काउंसिल की प्रतिष्ठित कानूनी उपाधि है, ने हत्या के आरोपी किशोर के मामले में दलीलों में गलत जानकारी दाखिल करने की “पूरी जिम्मेदारी” ली।

नाथवानी ने बचाव दल की ओर से बुधवार को न्यायमूर्ति जेम्स इलियट से कहा, “जो कुछ हुआ उसके लिए हमें गहरा खेद और शर्मिंदगी है।”

एआई-जनित त्रुटियाँ उस मामले को सुलझाने में 24 घंटे की देरी हुई जिसके बारे में इलियट को बुधवार को निष्कर्ष निकलने की उम्मीद थी। इलियट ने गुरुवार को फैसला सुनाया कि नथवानी का मुवक्किल, जिसकी पहचान नहीं की जा सकती क्योंकि वह नाबालिग है, मानसिक रूप से कमजोर होने के कारण हत्या का दोषी नहीं है।

इलियट ने गुरुवार को वकीलों से कहा, ”कम करके आंकने के जोखिम पर, जिस तरह से ये घटनाएं सामने आई हैं वह असंतोषजनक है।”

इलियट ने कहा, “वकील द्वारा प्रस्तुत प्रस्तुतियों की सटीकता पर भरोसा करने की अदालत की क्षमता न्याय के उचित प्रशासन के लिए मौलिक है।”

फर्जी प्रस्तुतियों में राज्य विधायिका के एक भाषण के मनगढ़ंत उद्धरण और कथित तौर पर सुप्रीम कोर्ट के गैर-मौजूद मामले के उद्धरण शामिल थे।

इलियट के सहयोगियों द्वारा त्रुटियों की खोज की गई, जो मामले नहीं ढूंढ सके और अनुरोध किया कि बचाव पक्ष के वकील प्रतियां प्रदान करें।

अदालत के दस्तावेज़ कहते हैं कि वकीलों ने स्वीकार किया कि उद्धरण “मौजूद नहीं हैं” और प्रस्तुतीकरण में “काल्पनिक उद्धरण” शामिल हैं।

वकीलों ने बताया कि उन्होंने जांच की कि प्रारंभिक उद्धरण सटीक थे और यह गलत मान लिया गया कि अन्य उद्धरण भी सही होंगे।

प्रस्तुतियाँ अभियोजक डेनियल पोर्सेडु को भी भेजी गईं, जिन्होंने उनकी सटीकता की जाँच नहीं की।

न्यायाधीश ने कहा कि सुप्रीम कोर्ट ने पिछले साल दिशानिर्देश जारी किए थे कि वकील एआई का उपयोग कैसे करते हैं।

इलियट ने कहा, “कृत्रिम बुद्धिमत्ता का उपयोग तब तक स्वीकार्य नहीं है जब तक कि उस उपयोग के उत्पाद को स्वतंत्र रूप से और पूरी तरह से सत्यापित नहीं किया जाता है।”

अदालती दस्तावेज़ वकीलों द्वारा उपयोग की जाने वाली जनरेटिव कृत्रिम बुद्धिमत्ता प्रणाली की पहचान नहीं करते हैं।

2023 में संयुक्त राज्य अमेरिका में एक तुलनीय मामले में, एक संघीय न्यायाधीश $5,000 का जुर्माना लगाया दो वकीलों और एक कानूनी फर्म पर चैटजीपीटी उन्हें विमानन चोट के दावे में फर्जी कानूनी अनुसंधान प्रस्तुत करने के लिए दोषी ठहराया गया था।

न्यायाधीश पी. केविन कास्टेल ने कहा कि उन्होंने बुरे विश्वास से काम किया। लेकिन उन्होंने यह समझाने के लिए उनकी माफ़ी और उठाए गए सुधारात्मक कदमों को श्रेय दिया कि यह सुनिश्चित करने के लिए कठोर प्रतिबंध आवश्यक क्यों नहीं थे कि वे या अन्य लोग कृत्रिम बुद्धिमत्ता उपकरणों को फिर से अपने तर्कों में नकली कानूनी इतिहास प्रस्तुत करने के लिए प्रेरित नहीं करेंगे।

उस वर्ष बाद में, अमेरिकी राष्ट्रपति डोनाल्ड ट्रम्प के पूर्व निजी वकील माइकल कोहेन के वकीलों द्वारा दायर कानूनी कागजात में एआई द्वारा आविष्कृत अधिक काल्पनिक अदालती फैसलों का हवाला दिया गया था। कोहेन ने दोष लेते हुए कहा कि उन्हें इस बात का एहसास नहीं था कि कानूनी अनुसंधान के लिए वह जिस Google टूल का उपयोग कर रहे थे वह तथाकथित एआई मतिभ्रम में भी सक्षम था।

ब्रिटिश उच्च न्यायालय के न्यायाधीश विक्टोरिया शार्प जून में चेतावनी दी गई थी कि झूठी सामग्री प्रदान करना जैसे कि वह वास्तविक थी, को अदालत की अवमानना ​​​​माना जा सकता है या, “सबसे गंभीर मामलों” में, न्याय के पाठ्यक्रम को विकृत करना, जिसमें जेल में अधिकतम आजीवन कारावास की सजा होती है।



Source link

Exit mobile version