Predsednik vrhovnega sodišča poroča o sodnikih, ki uporabljajo AI

Predsednik vrhovnega sodišča poroča o sodnikih, ki uporabljajo AI

Supreme Court chief justice reports on AI-powered judges PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Predsednik ameriškega vrhovnega sodišča John Roberts meni, da bo umetna inteligenca igrala vse pomembnejšo vlogo v sodnem procesu, vendar pričakuje, da bodo "človeški sodniki še nekaj časa tam."

Roberts je to ugotovil v svojem poročilu o zveznem pravosodju ob koncu leta 2023 [PDF], ki se prej ni dotaknil teme.

"Umetna inteligenca ima očitno velik potencial za dramatično povečanje dostopa do ključnih informacij za pravnike in nepravnike," je zapisal Roberts. "Toda prav tako očitno tvega vdor v interese zasebnosti in dehumanizacijo zakona."

Roberts je navedel potencialno vrednost sistemov AI za pomoč ljudem, ki si ne morejo privoščiti pravnega zastopanja, tako da jim omogočijo, da sami pripravijo sodne vloge. Hkrati je opozoril, da so modeli AI naredili naslovi zaradi nagnjenosti k halucinacijam, »kar je povzročilo, da so odvetniki, ki so uporabljali aplikacijo, predložili zapiske s citati neobstoječih primerov. (Vedno slaba ideja.)"

Kot da bi to zaskrbljenost poudarili, so prejšnji teden odpečateni dokumenti razkrili, da je Michael Cohen, odvetnik, ki je prej skrbel za pravne zadeve predsednika Donalda Trumpa, dal svojega odvetnika lažni pravni citati iz Google Barda. To je storil v podporo predlogu za predčasno prekinitev nadzora, ki mu ga je odredilo sodišče, potem ko je priznal kršitve pri financiranju kampanje leta 2018.

Roberts je tudi trdil, da se stroji trenutno ne morejo kosati s sposobnostjo človeškega sodnika, da oceni iskrenost obtoženčevega govora. »Odtenek je pomemben: veliko se lahko obrne na tresočo se roko, drhteč glas, spremembo pregiba, kapljico znoja, trenutek oklevanja, bežno prekinitev očesnega stika,« je zapisal.

Nadalje je opazil, da v kazenskih primerih, kjer se umetna inteligenca uporablja za oceno tveganja bega, ponovitve ali drugih napovednih odločitev, potekajo polemike o ustreznem postopku, zanesljivosti in pristranskosti, ki jih lahko vsebujejo takšni sistemi.

"Vsaj trenutno študije kažejo vztrajno javno dojemanje 'vrzeli pravičnosti med človekom in umetno inteligenco', kar odraža stališče, da so človeške odločitve, kljub vsem svojim pomanjkljivostim, pravičnejše od tistega, kar izpljune stroj," je zapisal Roberts.

To dojemanje so v septembrskem dokumentu izpodbijali harvardski akademiki Victoria Angelova, Will Dobbie in Crystal Yang prek Nacionalnega urada za ekonomske raziskave. The papirja, “Algoritemska priporočila in človeška presoja,” ugotavlja, da ko človeški sodniki preglasijo algoritemske odločitve o tem, ali naj obtoženca izpustijo ali pridržijo ob varščini, 90 odstotkov ljudi premalo izvaja algoritem pri odkrivanju morebitnih recidivistov.

"Ta ugotovitev kaže, da je tipičen sodnik v našem okolju manj spreten pri napovedovanju nepravilnega ravnanja kot algoritem in da bi lahko znatno zmanjšali stopnje nepravilnega ravnanja z avtomatizacijo odločitev o izpustitvi," navajajo avtorji v svojem prispevku.

Hkrati 10 odstotkom sodnikov uspe preseči algoritem, ko preglasijo njegova priporočila, in so boljši pri predvidevanju neprimernega ravnanja obtožencev. Skupni dejavnik med temi "visoko usposobljenimi sodniki" je, da je manj verjetno, da so prej delali v organih kazenskega pregona, in da bolje uporabljajo zasebne podatke, ki algoritmu niso na voljo.

Prispevek pravi, da so sodniki z nizko izobrazbo bolj pozorni na demografske dejavnike, kot je rasa, medtem ko se sodniki z visoko izobrazbo bolj osredotočajo na nedemografska vprašanja, kot so duševno zdravje, zloraba substanc in finančni viri.

Človeški sodniki bodo brez dvoma še nekaj časa prisotni, meni Roberts. In za slabo uspešno večino se lahko zgodi, da lahko umetna inteligenca pomaga izboljšati, vsaj v kontekstu predkazenskega odločanja. ®

Časovni žig:

Več od Register