एआई-संचालित न्यायाधीशों पर सुप्रीम कोर्ट के मुख्य न्यायाधीश की रिपोर्ट

एआई-संचालित न्यायाधीशों पर सुप्रीम कोर्ट के मुख्य न्यायाधीश की रिपोर्ट

सुप्रीम कोर्ट के मुख्य न्यायाधीश ने एआई-संचालित न्यायाधीशों प्लेटोब्लॉकचेन डेटा इंटेलिजेंस पर रिपोर्ट दी। लंबवत खोज. ऐ.

अमेरिकी सुप्रीम कोर्ट के मुख्य न्यायाधीश जॉन रॉबर्ट्स का मानना ​​है कि कृत्रिम बुद्धिमत्ता कानूनी प्रक्रिया में तेजी से महत्वपूर्ण भूमिका निभाएगी, लेकिन उन्हें उम्मीद है कि "मानव न्यायाधीश कुछ समय के लिए आसपास रहेंगे।"

रॉबर्ट्स ने संघीय न्यायपालिका पर अपनी 2023 वर्ष के अंत की रिपोर्ट में यह टिप्पणी की है [पीडीएफ], जिसने पहले इस विषय पर चर्चा नहीं की है।

रॉबर्ट्स ने लिखा, "एआई में स्पष्ट रूप से वकीलों और गैर-वकीलों के लिए महत्वपूर्ण जानकारी तक नाटकीय रूप से पहुंच बढ़ाने की काफी क्षमता है।" "लेकिन स्पष्ट रूप से यह गोपनीयता हितों पर हमला करने और कानून को अमानवीय बनाने का जोखिम उठाता है।"

रॉबर्ट्स ने उन लोगों की मदद करने के लिए एआई सिस्टम के संभावित मूल्य का हवाला दिया जो कानूनी प्रतिनिधित्व का खर्च वहन नहीं कर सकते, उन्हें खुद अदालती फाइलिंग तैयार करने की अनुमति देकर। साथ ही उन्होंने आगाह किया कि एआई मॉडल बने हैं मुख्य बातें उनकी मतिभ्रम की प्रवृत्ति के लिए, “जिसके कारण एप्लिकेशन का उपयोग करने वाले वकीलों को गैर-मौजूद मामलों के उद्धरणों के साथ संक्षिप्त विवरण प्रस्तुत करना पड़ा। (हमेशा एक बुरा विचार।)

मानो उस चिंता को रेखांकित करने के लिए, पिछले सप्ताह खोले गए दस्तावेज़ों से पता चला कि माइकल कोहेन, वकील जो पहले राष्ट्रपति डोनाल्ड ट्रम्प के लिए कानूनी मामलों को देखते थे, ने अपना वकील दिया था नकली कानूनी उद्धरण गूगल बार्ड से. उन्होंने 2018 के अभियान वित्त उल्लंघनों की स्वीकारोक्ति के बाद, अदालत द्वारा आदेशित पर्यवेक्षण को शीघ्र समाप्त करने की मांग करने वाले एक प्रस्ताव के समर्थन में ऐसा किया।

रॉबर्ट्स ने यह भी तर्क दिया कि मशीनें वर्तमान में प्रतिवादी के भाषण की ईमानदारी का आकलन करने के लिए एक मानव न्यायाधीश की क्षमता से मेल नहीं खा सकती हैं। उन्होंने लिखा, "बारीकियां मायने रखती हैं: कांपते हाथ, कांपती आवाज, रुख में बदलाव, पसीने की एक बूंद, एक पल की झिझक, आंखों के संपर्क में क्षणिक रुकावट से बहुत कुछ बदल सकता है।"

और उन्होंने देखा कि, आपराधिक मामलों में जहां एआई का उपयोग उड़ान जोखिम, पुनरावृत्ति या अन्य पूर्वानुमानित निर्णयों का आकलन करने के लिए किया जाता है, वहां उचित प्रक्रिया, विश्वसनीयता और ऐसी प्रणालियों में शामिल पूर्वाग्रहों के बारे में विवाद चल रहा है।

रॉबर्ट्स ने लिखा, "कम से कम वर्तमान में, अध्ययन 'मानव-एआई निष्पक्षता अंतर' की लगातार सार्वजनिक धारणा दिखाते हैं, जो इस दृष्टिकोण को दर्शाता है कि मानव निर्णय, उनकी सभी खामियों के लिए, मशीन जो कुछ भी उगलती है, उससे कहीं अधिक निष्पक्ष है।"

उस धारणा को नेशनल ब्यूरो ऑफ इकोनॉमिक रिसर्च के माध्यम से हार्वर्ड शिक्षाविदों विक्टोरिया एंजेलोवा, विल डॉबी और क्रिस्टल यांग द्वारा सितंबर के एक पेपर में चुनौती दी गई थी। काग़ज़, "एल्गोरिदमिक सिफ़ारिशें और मानव विवेक," पाता है कि जब मानव न्यायाधीश किसी प्रतिवादी को जमानत पर रिहा करने या हिरासत में लेने के बारे में एल्गोरिथम निर्णयों को ओवरराइड करते हैं, तो 90 प्रतिशत मनुष्य संभावित पुनरावृत्ति करने वालों का पता लगाने में एल्गोरिथम से कम प्रदर्शन करते हैं।

"यह खोज इंगित करती है कि हमारी सेटिंग में विशिष्ट न्यायाधीश एल्गोरिदम की तुलना में कदाचार की भविष्यवाणी करने में कम कुशल है और हम रिहाई के निर्णयों को स्वचालित करके कदाचार दरों में काफी कमी कर सकते हैं," लेखक अपने पेपर में कहते हैं।

साथ ही, 10 प्रतिशत न्यायाधीश एल्गोरिथम की सिफारिशों को नजरअंदाज करते हुए बेहतर प्रदर्शन करने में सफल होते हैं, और प्रतिवादियों द्वारा कदाचार की आशंका करने में बेहतर होते हैं। इन "उच्च-कौशल न्यायाधीशों" के बीच सामान्य कारक यह है कि उनके कानून प्रवर्तन में पहले काम करने की संभावना कम है और वे एल्गोरिदम के लिए उपलब्ध नहीं होने वाली निजी जानकारी का उपयोग करने में बेहतर हैं।

पेपर में कहा गया है कि कम-कुशल न्यायाधीश जाति जैसे जनसांख्यिकीय कारकों पर अधिक ध्यान देते हैं, जबकि उच्च-कुशल न्यायाधीश मानसिक स्वास्थ्य, मादक द्रव्यों के सेवन और वित्तीय संसाधनों जैसे गैर-जनसांख्यिकीय मुद्दों पर अधिक ध्यान देते हैं।

रॉबर्ट्स का मानना ​​है कि निस्संदेह मानव न्यायाधीश कुछ समय के लिए आसपास रहेंगे। और खराब प्रदर्शन करने वाले बहुमत के लिए, यह हो सकता है कि एआई उन्हें बेहतर बनाने में मदद कर सकता है, कम से कम प्री-ट्रायल निर्णय लेने के संदर्भ में। ®

समय टिकट:

से अधिक रजिस्टर