رئیس دیوان عالی از قضات دارای هوش مصنوعی گزارش می دهد

رئیس دیوان عالی از قضات دارای هوش مصنوعی گزارش می دهد

قاضی عالی دیوان عالی در مورد قاضی مبتنی بر هوش مصنوعی اطلاعات پلاتو بلاک چین گزارش می دهد. جستجوی عمودی Ai.

جان رابرتز، رئیس دیوان عالی ایالات متحده معتقد است که هوش مصنوعی نقش مهمی را در روند قانونی بازی خواهد کرد، اما او انتظار دارد که "قاضی های انسانی برای مدتی در اطراف باشند."

رابرتز در گزارش پایان سال 2023 خود در مورد قوه قضاییه فدرال این مشاهدات را بیان کرد.PDF]، که قبلاً به موضوع پرداخته نشده است.

رابرتز نوشت: بدیهی است که هوش مصنوعی پتانسیل بالایی برای افزایش چشمگیر دسترسی به اطلاعات کلیدی برای وکلا و غیر وکلا دارد. اما بدیهی است که خطر تجاوز به حریم خصوصی و غیرانسانی کردن قانون را نیز در پی دارد.»

رابرتز به ارزش بالقوه سیستم‌های هوش مصنوعی برای کمک به افرادی که توانایی پرداخت وکالت قانونی را ندارند، اشاره کرد و به آنها اجازه داد تا پرونده‌های دادگاه را خودشان تهیه کنند. در همان زمان، او هشدار داد که مدل‌های هوش مصنوعی ساخته‌اند سرفصل ها به دلیل تمایل آنها به توهم، «که باعث شد وکلایی که از این برنامه استفاده می‌کردند، خلاصه‌هایی را با استناد به پرونده‌های موجود ارسال کنند. (همیشه ایده بدی است.)”

اسنادی که هفته گذشته بدون مهر و موم شده بود، نشان داد که برای تأکید بر این نگرانی، مایکل کوهن، وکیلی که قبلاً امور حقوقی دونالد ترامپ، رئیس جمهور آمریکا را اداره می کرد، وکیل خود را داده است. استنادات قانونی جعلی از Google Bard او این کار را در حمایت از طرحی انجام داد که به دنبال پایان دادن زودهنگام به نظارت حکم دادگاه خود، پس از پذیرش تخلفات مالی کمپین انتخاباتی در سال 2018 بود.

رابرتز همچنین استدلال کرد که ماشین‌ها در حال حاضر نمی‌توانند با توانایی قاضی انسانی برای ارزیابی صداقت گفتار متهم برابری کنند. او می‌نویسد: «چیزهای ظریف مهم هستند: خیلی چیزها می‌توانند باعث لرزش دست، صدای لرزان، تغییر خم شدن، یک دانه عرق، لحظه‌ای تردید، قطع زودگذر در تماس چشمی شوند.

و او ادامه داد که در موارد جنایی که از هوش مصنوعی برای ارزیابی خطر پرواز، تکرار جرم یا سایر تصمیمات پیش‌بینی‌کننده استفاده می‌شود، مناقشه‌های مداومی در مورد روند قانونی، قابلیت اطمینان و سوگیری‌هایی وجود دارد که ممکن است چنین سیستم‌هایی داشته باشند.

رابرتز می‌نویسد: «حداقل در حال حاضر، مطالعات نشان می‌دهد که یک ادراک عمومی دائمی از «شکاف انصاف بین انسان و هوش مصنوعی» نشان می‌دهد که این دیدگاه را منعکس می‌کند که قضاوت‌های انسانی، با وجود تمام نقص‌هایشان، منصفانه‌تر از هر چیزی است که ماشین به بیرون می‌ریزد.

این تصور در مقاله ای در سپتامبر توسط دانشگاهیان هاروارد، ویکتوریا آنجلوا، ویل دابی، و کریستال یانگ از طریق دفتر ملی تحقیقات اقتصادی به چالش کشیده شد. این مقاله"توصیه های الگوریتمی و اختیار انسانی" نشان می دهد که وقتی قضات انسانی تصمیمات الگوریتمی را در مورد آزادی یا بازداشت متهم به قید وثیقه نادیده می گیرند، 90 درصد از انسان ها الگوریتم را در شناسایی تکرار کنندگان احتمالی نادیده می گیرند.

نویسندگان در مقاله خود می‌گویند: «این یافته نشان می‌دهد که قاضی معمولی در محیط ما در پیش‌بینی رفتار نادرست نسبت به الگوریتم مهارت کمتری دارد و ما می‌توانیم با خودکار کردن تصمیم‌گیری‌های آزادسازی، میزان سوء رفتار را به میزان قابل توجهی کاهش دهیم.»

در عین حال، 10 درصد از قضات هنگام نادیده گرفتن توصیه‌های الگوریتم، بهتر عمل می‌کنند و در پیش‌بینی سوء رفتار متهمان بهتر عمل می‌کنند. عامل مشترک در میان این «قضات با مهارت بالا» این است که احتمال کمتری دارد که قبلاً در مجریان قانون کار کرده باشند و در استفاده از اطلاعات خصوصی که در اختیار الگوریتم نیست، بهتر هستند.

این مقاله می گوید که قضات کم مهارت بیشتر به عوامل جمعیت شناختی مانند نژاد توجه می کنند، در حالی که قضات با مهارت بیشتر بر مسائل غیر جمعیتی مانند سلامت روان، سوء مصرف مواد و منابع مالی تمرکز می کنند.

رابرتز معتقد است که قضات انسانی بدون شک برای مدتی در اطراف خواهند بود. و برای اکثریتی که عملکرد ضعیفی دارند، ممکن است هوش مصنوعی بتواند به بهبود آنها کمک کند، حداقل در زمینه تصمیم گیری قبل از محاکمه. ®

تمبر زمان:

بیشتر از ثبت نام