Høyesteretts sjefsjef rapporterer om AI-drevne dommere

Høyesteretts sjefsjef rapporterer om AI-drevne dommere

Høyesteretts sjefsdommer rapporterer om AI-drevne dommere PlatoBlockchain Data Intelligence. Vertikalt søk. Ai.

USAs høyesterettssjef John Roberts mener at kunstig intelligens vil spille en stadig viktigere rolle i den juridiske prosessen, men han forventer at «menneskelige dommere vil være tilstede en stund».

Roberts gjorde den observasjonen i sin årssluttrapport for 2023 om det føderale rettsvesenet [PDF], som ikke tidligere har berørt temaet.

"AI har åpenbart et stort potensial til å dramatisk øke tilgangen til nøkkelinformasjon for både advokater og ikke-advokater," skrev Roberts. "Men like åpenbart risikerer det å invadere personverninteresser og dehumanisere loven."

Roberts nevnte den potensielle verdien av AI-systemer for å hjelpe folk som ikke har råd til juridisk representasjon ved å la dem forberede rettssaker på egenhånd. Samtidig advarte han om at AI-modeller har laget overskrifter for deres tilbøyelighet til å hallusinere, «noe som førte til at advokatene brukte søknaden til å sende inn brief med sitater til ikke-eksisterende saker. (Alltid en dårlig idé.)

Som for å understreke denne bekymringen, avslørte dokumenter som ble åpnet i forrige uke at Michael Cohen, advokaten som tidligere håndterte juridiske saker for president Donald Trump, hadde gitt sin egen advokat falske juridiske sitater fra Google Bard. Han gjorde det til støtte for et forslag om å få en tidlig slutt på hans rettsbeordrede tilsyn, etter hans innrømmelse av brudd på kampanjefinansiering i 2018.

Roberts hevdet også at maskiner foreløpig ikke kan matche en menneskelig dommers evne til å vurdere oppriktigheten til en tiltalts tale. "Nyanser betyr noe: Mye kan snu på en skjelvende hånd, en dirrende stemme, en endring av bøyning, en svetteperle, et øyeblikks nøling, et flyktig brudd i øyekontakt," skrev han.

Og han fortsatte med å observere at i straffesaker der AI brukes til å vurdere flyrisiko, tilbakefall eller andre prediktive beslutninger, er det pågående kontroverser om rettferdig prosess, pålitelighet og skjevheter som slike systemer kan inneholde.

"I det minste for øyeblikket viser studier en vedvarende offentlig oppfatning av et "menneskelig-AI rettferdighetsgap", som reflekterer synet om at menneskelige bedømmelser, for alle sine feil, er mer rettferdige enn hva maskinen spytter ut," skrev Roberts.

Denne oppfatningen ble utfordret i en septemberoppgave av Harvard-akademikerne Victoria Angelova, Will Dobbie og Crystal Yang gjennom National Bureau of Economic Research. De papir, "Algorithmic Recommendations and Human Discretion," finner at når menneskelige dommere overstyrer algoritmiske avgjørelser om hvorvidt de skal løslate eller arrestere en tiltalt mot kausjon, underpresterer 90 prosent av menneskene algoritmen når det gjelder å oppdage potensielle residivister.

"Dette funnet indikerer at den typiske dommeren i vår setting er mindre dyktig til å forutsi feil oppførsel enn algoritmen, og at vi kan redusere antallet feil oppførsel betydelig ved å automatisere utgivelsesbeslutninger," skriver forfatterne i sin artikkel.

Samtidig klarer 10 prosent av dommerne å utkonkurrere algoritmen når de overstyrer anbefalingene, og er flinkere til å forutse mishandling fra tiltalte. Fellesfaktoren blant disse "høykompetansedommerne" er at det er mindre sannsynlig at de tidligere har jobbet innen rettshåndhevelse, og de er flinkere til å bruke privat informasjon som ikke er tilgjengelig for algoritmen.

Avisen sier at dommere med lav kompetanse legger mer vekt på demografiske faktorer som rase, mens dommere med høy kompetanse fokuserer mer på ikke-demografiske problemer som mental helse, rusmisbruk og økonomiske ressurser.

Menneskelige dommere vil uten tvil være rundt en stund, mener Roberts. Og for det underpresterende flertallet kan det være at AI kan bidra til å gjøre dem bedre, i det minste i sammenheng med beslutninger før rettssaken. ®

Tidstempel:

Mer fra Registeret