Il presidente della Corte Suprema riferisce sui giudici che utilizzano l’intelligenza artificiale

Il presidente della Corte Suprema riferisce sui giudici che utilizzano l’intelligenza artificiale

Il presidente della Corte Suprema riferisce sui giudici basati sull'intelligenza artificiale PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

Il giudice capo della Corte Suprema degli Stati Uniti, John Roberts, ritiene che l’intelligenza artificiale svolgerà un ruolo sempre più importante nel processo legale, ma si aspetta che “i giudici umani resteranno in circolazione per un po’”.

Roberts ha fatto questa osservazione nel suo rapporto di fine anno 2023 sulla magistratura federale [PDF], che in precedenza non ha toccato l'argomento.

“L’intelligenza artificiale ha ovviamente un grande potenziale per aumentare notevolmente l’accesso alle informazioni chiave sia per gli avvocati che per i non avvocati”, ha scritto Roberts. “Ma altrettanto ovviamente rischia di invadere gli interessi della privacy e disumanizzare la legge”.

Roberts ha citato il valore potenziale dei sistemi di intelligenza artificiale per aiutare le persone che non possono permettersi una rappresentanza legale consentendo loro di preparare da soli le istanze giudiziarie. Allo stesso tempo, ha avvertito che i modelli di intelligenza artificiale sono stati realizzati titoli per la loro tendenza alle allucinazioni, “che ha portato gli avvocati che utilizzavano l'applicazione a presentare memorie con citazioni di casi inesistenti. (Sempre una cattiva idea.)”

Quasi a sottolineare tale preoccupazione, i documenti aperti la settimana scorsa hanno rivelato che Michael Cohen, l’avvocato che in precedenza si occupava degli affari legali del presidente Donald Trump, aveva dato al proprio avvocato false citazioni legali da Google Bard. Lo ha fatto a sostegno di una mozione che chiedeva la fine anticipata della sua supervisione ordinata dal tribunale, in seguito alla sua ammissione di violazioni del finanziamento della campagna elettorale del 2018.

Roberts ha anche sostenuto che le macchine attualmente non possono eguagliare la capacità di un giudice umano di valutare la sincerità del discorso di un imputato. "Le sfumature sono importanti: molto può dipendere da una mano tremante, una voce tremante, un cambio di inflessione, una goccia di sudore, un attimo di esitazione, una fugace interruzione del contatto visivo", ha scritto.

E ha continuato osservando che, nei casi penali in cui l’intelligenza artificiale viene utilizzata per valutare il rischio di volo, la recidiva o altre decisioni predittive, è in corso una controversia sul giusto processo, sull’affidabilità e sui pregiudizi che tali sistemi possono contenere.

“Almeno al momento, gli studi mostrano una percezione pubblica persistente di un ‘divario di equità tra uomo e intelligenza artificiale’, che riflette l’idea che i giudizi umani, nonostante tutti i loro difetti, sono più giusti di qualunque cosa la macchina sputi”, ha scritto Roberts.

Questa percezione è stata messa in discussione in un articolo di settembre dagli accademici di Harvard Victoria Angelova, Will Dobbie e Crystal Yang attraverso il National Bureau of Economic Research. IL carta, “Algorithmic Recommendations and Human Discretion”, rileva che quando i giudici umani ignorano le decisioni algoritmiche sull’opportunità di rilasciare o detenere un imputato su cauzione, il 90% degli umani non riesce a raggiungere l’algoritmo nell’individuare potenziali recidivi.

"Questa scoperta indica che il giudice tipico nel nostro contesto è meno abile nel prevedere la cattiva condotta rispetto all'algoritmo e che potremmo ridurre sostanzialmente i tassi di cattiva condotta automatizzando le decisioni di rilascio", affermano gli autori nel loro articolo.

Allo stesso tempo, il 10% dei giudici riesce a sovraperformare l’algoritmo quando ignora le sue raccomandazioni, ed è più bravo a prevedere la cattiva condotta degli imputati. Il fattore comune tra questi “giudici altamente qualificati” è che hanno meno probabilità di aver lavorato in precedenza nelle forze dell’ordine e sono più bravi a utilizzare informazioni private non disponibili all’algoritmo.

Il documento afferma che i giudici poco qualificati prestano maggiore attenzione ai fattori demografici come la razza, mentre i giudici altamente qualificati si concentrano maggiormente su questioni non demografiche come la salute mentale, l’abuso di sostanze e le risorse finanziarie.

I giudici umani senza dubbio rimarranno in giro per un po’, ritiene Roberts. E per la maggioranza con risultati inferiori, potrebbe darsi che l’intelligenza artificiale possa contribuire a renderli migliori, almeno nel contesto del processo decisionale preprocessuale. ®

Timestamp:

Di più da Il registro