Голова Верховного Суду звітує про суддів, які використовують штучний інтелект

Голова Верховного Суду звітує про суддів, які використовують штучний інтелект

Supreme Court chief justice reports on AI-powered judges PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Голова Верховного суду США Джон Робертс вважає, що штучний інтелект відіграватиме дедалі важливішу роль у судовому процесі, але він очікує, що «люди-судді ще деякий час залишаться».

Робертс зробив це зауваження у своєму річному звіті про федеральну судову систему за 2023 рік [PDF], який раніше не торкався теми.

«ШІ, очевидно, має великий потенціал для значного розширення доступу до ключової інформації як для юристів, так і для неюристів», — написав Робертс. «Але так само очевидно, що це ризикує вторгнутися в інтереси приватного життя та дегуманізувати закон».

Робертс назвав потенційну цінність систем штучного інтелекту для допомоги людям, які не можуть дозволити собі юридичне представництво, дозволяючи їм самостійно готувати судові документи. У той же час він попередив, що моделі ШІ зробили заголовки за їхню схильність до галюцинацій, «що змусило юристів, які використовували додаток, подавати записки з посиланнями на неіснуючі справи. (Завжди погана ідея.)”

Ніби щоб підкреслити це занепокоєння, документи, розпечатані минулого тижня, показали, що Майкл Коен, адвокат, який раніше займався юридичними справами президента Дональда Трампа, надав власного адвоката підроблені юридичні цитати від Google Bard. Він зробив це на підтримку клопотання про дострокове припинення нагляду за ним за рішенням суду після його визнання порушень у фінансуванні кампанії 2018 року.

Робертс також стверджував, що наразі машини не можуть зрівнятися зі здатністю людського судді оцінювати щирість мови підсудного. «Нюанс має значення: багато чого може вплинути на тремтячу руку, тремтливий голос, зміну флексії, краплі поту, хвилинне вагання, швидкоплинну перерву зорового контакту», — написав він.

І далі він зауважив, що в кримінальних справах, де штучний інтелект використовується для оцінки ризику втечі, рецидиву чи інших прогнозних рішень, тривають суперечки щодо належної процедури, надійності та упереджень, які можуть містити такі системи.

«Принаймні на даний момент дослідження показують стійке суспільне сприйняття «розриву справедливості між людиною та штучним інтелектом», що відображає думку про те, що людські судові рішення, незважаючи на всі їхні недоліки, є справедливішими, ніж те, що викидає машина», — написав Робертс.

Це сприйняття було оскаржено у вересневій статті вчених Гарварду Вікторії Ангелової, Вілла Доббі та Крістал Янг через Національне бюро економічних досліджень. The папір, «Algorithmic Recommendations and Human Discretion», виявлено, що коли судді-людини скасовують алгоритмічні рішення про те, чи звільнити підсудного чи затримати його під заставу, 90 відсотків людей не виконують алгоритму для виявлення потенційних рецидивістів.

«Це відкриття вказує на те, що типовий суддя в нашому середовищі менш вміє прогнозувати неправомірну поведінку, ніж алгоритм, і що ми могли б суттєво знизити рівень неправомірної поведінки, автоматизувавши рішення про звільнення», — заявляють автори у своїй статті.

У той же час 10% суддів встигають перевершити алгоритм, відхиляючи його рекомендації, і краще передбачають неправомірну поведінку підсудних. Спільним для цих «висококваліфікованих суддів» є те, що вони, швидше за все, не працювали раніше в правоохоронних органах, і вони краще вміють використовувати приватну інформацію, недоступну для алгоритму.

У документі йдеться, що малокваліфіковані судді приділяють більше уваги демографічним факторам, таким як раса, тоді як висококваліфіковані судді більше зосереджуються на недемографічних питаннях, таких як психічне здоров’я, зловживання психоактивними речовинами та фінансові ресурси.

Робертс вважає, що судді-люди, безсумнівно, будуть ще деякий час. І для більшості, яка не працює, ШІ може допомогти покращити їх, принаймні в контексті досудового прийняття рішень. ®

Часова мітка:

Більше від Реєстр