يقدم رئيس المحكمة العليا تقارير عن القضاة الذين يستخدمون الذكاء الاصطناعي

يقدم رئيس المحكمة العليا تقارير عن القضاة الذين يستخدمون الذكاء الاصطناعي

تقرير رئيس المحكمة العليا عن القضاة الذين يعملون بنظام الذكاء الاصطناعي PlatoBlockchain Data Intelligence. البحث العمودي. منظمة العفو الدولية.

ويعتقد رئيس المحكمة العليا في الولايات المتحدة جون روبرتس أن الذكاء الاصطناعي سوف يلعب دورا متزايد الأهمية في العملية القانونية، لكنه يتوقع أن "يظل القضاة البشر موجودين لبعض الوقت".

أدلى روبرتس بهذه الملاحظة في تقريره لنهاية العام 2023 عن السلطة القضائية الفيدرالية [PDF]، والتي لم تتطرق للموضوع من قبل.

وكتب روبرتس: "من الواضح أن الذكاء الاصطناعي لديه إمكانات كبيرة لزيادة الوصول إلى المعلومات الأساسية بشكل كبير للمحامين وغير المحامين على حد سواء". "ولكن من الواضح أيضًا أنها تخاطر بغزو مصالح الخصوصية وتجريد القانون من إنسانيته."

وأشار روبرتس إلى القيمة المحتملة لأنظمة الذكاء الاصطناعي في مساعدة الأشخاص الذين لا يستطيعون تحمل تكاليف التمثيل القانوني من خلال السماح لهم بإعداد ملفات المحكمة بأنفسهم. وفي الوقت نفسه، حذر من أن نماذج الذكاء الاصطناعي قد صنعت العناوين لميلهم إلى الهلوسة، “مما دفع المحامين المستخدمين للتطبيق إلى تقديم مذكرات مع الاستشهادات بقضايا غير موجودة. (دائما فكرة سيئة.) "

وكأنما للتأكيد على هذا القلق، كشفت وثائق تم الكشف عنها الأسبوع الماضي أن مايكل كوهين، المحامي الذي كان يتولى سابقًا الشؤون القانونية للرئيس دونالد ترامب، قد أعطى محاميه الخاص الاستشهادات القانونية وهمية من جوجل بارد. لقد فعل ذلك لدعم اقتراح يسعى إلى إنهاء مبكر للإشراف الذي أمرت به المحكمة، بعد اعترافه بانتهاكات تمويل الحملات الانتخابية عام 2018.

وجادل روبرتس أيضًا بأن الآلات لا يمكنها حاليًا أن تضاهي قدرة القاضي البشري على تقييم صدق خطاب المدعى عليه. وكتب: "الفروق الدقيقة مهمة: يمكن أن يتحول الكثير إلى يد مرتعشة، أو صوت مرتعش، أو تغيير في نبرة الصوت، أو حبة عرق، أو لحظة تردد، أو انقطاع عابر في التواصل البصري".

وتابع أنه في القضايا الجنائية حيث يتم استخدام الذكاء الاصطناعي لتقييم مخاطر الطيران أو العودة إلى الإجرام أو غيرها من القرارات التنبؤية، هناك جدل مستمر حول الإجراءات القانونية الواجبة والموثوقية والتحيزات التي قد تحتويها هذه الأنظمة.

وكتب روبرتس: "على الأقل في الوقت الحاضر، تظهر الدراسات تصورًا عامًا مستمرًا بوجود "فجوة العدالة بين الإنسان والذكاء الاصطناعي"، مما يعكس وجهة النظر القائلة بأن الأحكام البشرية، على الرغم من جميع عيوبها، أكثر عدالة من أي شيء تصدره الآلة".

وقد تم تحدي هذا التصور في بحث نشر في شهر سبتمبر من قبل الأكاديميين في جامعة هارفارد فيكتوريا أنجيلوفا، وويل دوبي، وكريستال يانج من خلال المكتب الوطني للبحوث الاقتصادية. ال ورقةتوصلت "التوصيات الخوارزمية والتقدير البشري" إلى أنه عندما يتجاهل القضاة البشريون القرارات الخوارزمية بشأن إطلاق سراح المدعى عليه أو احتجازه بكفالة، فإن 90 بالمائة من البشر يفشلون في أداء الخوارزمية في اكتشاف المجرمين المحتملين.

"تشير هذه النتيجة إلى أن القاضي النموذجي في بيئتنا أقل مهارة في التنبؤ بسوء السلوك من الخوارزمية، وأنه يمكننا تقليل معدلات سوء السلوك بشكل كبير من خلال أتمتة قرارات الإفراج"، كما ذكر المؤلفون في ورقتهم البحثية.

وفي الوقت نفسه، تمكن 10% من القضاة من التفوق على الخوارزمية عند تجاوز توصياتها، وكانوا أفضل في توقع سوء السلوك من قبل المدعى عليهم. العامل المشترك بين هؤلاء "القضاة ذوي المهارات العالية" هو أنهم أقل عرضة للعمل سابقًا في مجال إنفاذ القانون وأنهم أفضل في استخدام المعلومات الخاصة غير المتاحة للخوارزمية.

وتقول الورقة إن القضاة ذوي المهارات المنخفضة يولون المزيد من الاهتمام للعوامل الديموغرافية مثل العرق، في حين يركز القضاة ذوو المهارات العالية بشكل أكبر على القضايا غير الديموغرافية مثل الصحة العقلية، وتعاطي المخدرات، والموارد المالية.

ويرى روبرتس أنه لا شك أن القضاة البشريين سيبقون موجودين لبعض الوقت. وبالنسبة للأغلبية ذات الأداء الضعيف، ربما يساعد الذكاء الاصطناعي في تحسينها، على الأقل في سياق اتخاذ القرار قبل المحاكمة. ®

الطابع الزمني:

اكثر من السجل