Lovgivere prøver igen at bryde sorte boks-algoritmer op

Lovgivere prøver igen at bryde sorte boks-algoritmer op

Lovgivere forsøger igen at bryde sorte boks-algoritmer op, PlatoBlockchain Data Intelligence. Lodret søgning. Ai.

Demokratiske lovgivere har endnu en gang foreslået lovgivning for at sikre, at softwarekildekoden, der bruges til kriminelle efterforskninger, kan undersøges og er underlagt standardiseret test af regeringen.

Torsdag genindførte husrepræsentanterne Mark Takano (D-CA) og Dwight Evans (D-PA) loven om Justice in Forensic Algorithms fra 2024, et lovudkast, der forbyder brug af forretningshemmelige krav fra at forhindre forsvarsadvokater i at gennemgå kildekoden, der er relevant i straffesager. og etablerer et føderalt testregime for retsmedicinsk software.

Softwareudvikleres handelshemmelige privilegier bør aldrig overtrumfe sagsøgtes ret til retfærdig proces

Lovforslaget, fremsat i 2019 , i 2021 til ingen nytte, har til formål at garantere, at kriminelle tiltalte har mulighed for at vurdere rimeligheden af ​​software, der bruges mod dem.

Ofte er dette ikke tilfældet, fordi producenter af retsmedicinsk software kan modstå offentlig gennemgang af deres kildekode ved at hævde, at den er klassificeret som en forretningshemmelighed.

"Efterhånden som brugen af ​​algoritmer breder sig i retsforfølgelsen af ​​amerikanere, må vi sikre, at de kan se og udfordre sorte bokse, der kan afgøre, om de bliver dømt," sagde Takano i en erklæring. "Softwareudvikleres forretningshemmeligheder bør aldrig overtrumfe anklagedes retfærdighedsrettigheder i det strafferetlige system."

Og alligevel gør de det. Northpointe, udvikleren af ​​et system kaldet COMPAS (Correctional Offender Management Profiling for Alternative Sanctions), der bruges til at beregne recidivrisiko for at informere før og efter retssagsbeslutninger, anser sit system for at være proprietært og har nægtet at afsløre, hvordan det fungerer.

"Som en privat udviklet algoritme ydes COMPAS beskyttelsen af ​​lov om forretningshemmeligheder," skrev Andrew Lee Park i en 2019 UCLA Law Review artikel. "Det betyder, at COMPAS's algoritme - inklusive dens software, de typer data, den bruger, og hvordan COMPAS vejer hvert datapunkt - er næsten immun over for tredjeparts kontrol."

Dette kunne være acceptabelt, hvis COMPAS behandlede alle retfærdigt, sagde Park, men forskning tyder på, at det ikke gør det. Specifikt, en analyse udført af ProPublicain i 2016 fandt COMPAS at være partisk over for afroamerikanere og var ofte unøjagtig.

Northpointe udgivet gendrivelsesforskning hævder, at dets software er rimeligt. Og ProPublica imødegås, med angivelse af, at den stod ved sine resultater. Faktum er, at det stadig er problematisk at træffe strafferetlige beslutninger uden at afsløre, hvordan disse beslutninger blev truffet.

"Vi støtter gennemsigtigheds- og standardkravene i loven om retfærdighed i retsmedicinske algoritmer," sagde EFFs personaleadvokat Hannah Zhao. Registret. "Kriminelle anklagede og offentligheden har ret til at undersøge de algoritmer, der bruges til at sætte folk bag tremmer."

Tiltalte har hævdet, at det at blive nægtet adgang til sådan softwares kildekode krænker den sjette ændrings ret til at konfrontere sin anklager, et problem, der er rejst uden held i en appel [PDF] for at omstøde morddommen i 2015 af den dømte morder John Wakefield.

I december 2023 lovanmeldelsesartikel med titlen "Algorithmic Accountability and the Sixth Amendment: The Right to Confront an Artificial Witness," University of Baltimore School of Law-studerende Dallon Danforth hævder, at retssystemet bliver nødt til at løse spændingen mellem retten til at konfrontere en anklager og retten til at beskytte intellektuelle ejendom.

The Justice in Forensic Algorithms Act af 2024 har noget at sige om det. Ærgerligt, at det formentlig heller ikke kommer igennem både Parlamentet og Senatet denne gang. ®

Tidsstempel:

Mere fra Registret