Prezes Sądu Najwyższego składa raport na temat sędziów wykorzystujących sztuczną inteligencję

Prezes Sądu Najwyższego składa raport na temat sędziów wykorzystujących sztuczną inteligencję

Prezes Sądu Najwyższego informuje o sędziach korzystających z sztucznej inteligencji PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

Prezes Sądu Najwyższego Stanów Zjednoczonych, John Roberts, uważa, że ​​sztuczna inteligencja będzie odgrywać coraz ważniejszą rolę w procesie prawnym, ale spodziewa się, że „ludzcy sędziowie jeszcze przez jakiś czas będą w użyciu”.

Roberts poczynił tę obserwację w swoim raporcie na koniec roku 2023 na temat federalnego sądownictwa [PDF], który wcześniej nie poruszał tego tematu.

„Sztuczna inteligencja ma oczywiście ogromny potencjał, jeśli chodzi o radykalne zwiększenie dostępu do kluczowych informacji zarówno prawnikom, jak i osobom niebędącym prawnikami” – napisał Roberts. „Ale równie oczywiste jest ryzyko naruszenia interesów prywatności i dehumanizacji prawa”.

Roberts przytoczył potencjalną wartość systemów sztucznej inteligencji w pomaganiu osobom, których nie stać na zastępstwo prawne, poprzez umożliwienie im samodzielnego przygotowywania pozwów sądowych. Jednocześnie przestrzegł, że modele AI stworzyły nagłówki za skłonność do halucynacji, „co spowodowało, że prawnicy korzystający z aplikacji składali briefy z cytatami na nieistniejące sprawy. (Zawsze to zły pomysł.)”

Jakby na podkreślenie tych obaw, dokumenty ujawnione w zeszłym tygodniu ujawniły, że Michael Cohen, prawnik, który wcześniej zajmował się sprawami prawnymi prezydenta Donalda Trumpa, oddał swojemu prawnikowi fałszywe cytaty prawne z Google Barda. Uczynił to w ramach poparcia wniosku o wcześniejsze zakończenie nadzoru nakazanego przez sąd po przyznaniu się do naruszeń związanych z finansowaniem kampanii w 2018 r.

Roberts argumentował również, że maszyny nie są obecnie w stanie dorównać zdolności ludzkiego sędziego do oceny szczerości przemówienia oskarżonego. „Nuanse mają znaczenie: wiele może zależeć od drżącej dłoni, drżącego głosu, zmiany tonu, kropelki potu, chwili wahania, przelotnej przerwy w kontakcie wzrokowym” – napisał.

Następnie zauważył, że w sprawach karnych, w których sztuczna inteligencja jest wykorzystywana do oceny ryzyka lotu, recydywy lub innych przewidywalnych decyzji, trwają kontrowersje dotyczące należytego procesu, niezawodności i uprzedzeń, jakie mogą zawierać takie systemy.

„Przynajmniej obecnie badania pokazują utrzymującą się opinię publiczną na temat„ luki w uczciwości między człowiekiem a sztuczną inteligencją ”, co odzwierciedla pogląd, że ludzkie orzeczenia, pomimo wszystkich ich wad, są sprawiedliwsze niż to, co wypluwa maszyna” – napisał Roberts.

Pogląd ten został zakwestionowany we wrześniowym artykule naukowców z Harvardu, Victorii Angelovej, Willa Dobbiego i Crystal Yang, za pośrednictwem Krajowego Biura Badań Ekonomicznych. The papier, „Zalecenia algorytmiczne i dyskrecja ludzka” pokazuje, że gdy sędziowie-ludzie uchylają algorytmiczne decyzje dotyczące zwolnienia lub zatrzymania oskarżonego za kaucją, 90 procent ludzi słabiej radzi sobie z algorytmem w wykrywaniu potencjalnych recydywistów.

„To odkrycie wskazuje, że typowy sędzia w naszym środowisku ma mniejsze umiejętności w przewidywaniu niewłaściwego postępowania niż algorytm i że moglibyśmy znacznie zmniejszyć liczbę niewłaściwych zachowań, automatyzując decyzje o zwolnieniu” – stwierdzają autorzy w swoim artykule.

Jednocześnie 10 procent sędziów osiąga lepsze wyniki niż algorytm w zakresie pomijania jego zaleceń i lepiej potrafi przewidywać niewłaściwe postępowanie oskarżonych. Wspólnym czynnikiem wśród tych „sędziów o wysokich umiejętnościach” jest to, że rzadziej pracowali wcześniej w organach ścigania i lepiej radzą sobie z wykorzystywaniem prywatnych informacji niedostępnych dla algorytmu.

W artykule stwierdzono, że sędziowie o niskich kwalifikacjach zwracają większą uwagę na czynniki demograficzne, takie jak rasa, podczas gdy sędziowie o wysokich kwalifikacjach skupiają się bardziej na kwestiach niedemograficznych, takich jak zdrowie psychiczne, nadużywanie substancji psychoaktywnych i zasoby finansowe.

Roberts uważa, że ​​ludzcy sędziowie bez wątpienia jeszcze przez jakiś czas będą istnieć. W przypadku większości osiągającej słabe wyniki może się zdarzyć, że sztuczna inteligencja może pomóc w udoskonaleniu ich, przynajmniej w kontekście podejmowania decyzji przed procesem. ®

Znak czasu:

Więcej z Rejestr