Etisk AI-team siger, at Bias Bounties hurtigere kan afsløre algoritmiske fejl PlatoBlockchain Data Intelligence. Lodret søgning. Ai.

Etisk AI-team siger, at Bias Bounties hurtigere kan afsløre algoritmiske fejl

Bias i AI-systemer har vist sig at være en stor stopklods i bestræbelserne på at integrere teknologien mere bredt i vores samfund. Et nyt tiltag, der skal belønne forskere for at finde eventuelle fordomme i AI-systemer kunne hjælpe med at løse problemet.

Indsatsen er baseret på de fejlbelønninger, som softwarevirksomheder betaler til cybersikkerhedseksperter, som advarer dem omf eventuelle potentielle sikkerhedsfejl i deres produkter. Ideen er ikke ny; "bias bounties" var først foreslået ved enJeg forsker og iværksætter JB Rubinovitz tilbage i 2018, og forskellige organisationer har allerede kørt sådanne udfordringer.

Men den nye indsats søger at skabe et løbende forum for bias bounty-konkurrencer, der er uafhængigt af en bestemt organisation. De såkaldte "Bias Buccaneers" består af frivillige fra en række virksomheder, herunder Twitter, og planlægger at afholde regelmæssige konkurrencer eller "mytterier", og lancerede tidligere på måneden den første sådan udfordring.

"Bug bounties er en standardpraksis inden for cybersikkerhed, som endnu ikke har fundet fodfæste i det algoritmiske bias-fællesskab,« siger organisationen.nizere siger på deres hjemmeside. "Mens indledende engangsbegivenheder viste entusiasme for dusører, er Bias Buccaneers den første nonprofit, der er beregnet til at skabe igangværende mytterier, samarbejde med teknologivirksomheder og bane vejen for gennemsigtige og reproducerbare evalueringer af AI-systemer."

Denne første konkurrence er rettet mod at tackle bias i billeddetekteringsalgoritmer, men snarere end at få folk til at målrette mod specifikke AI-systemer, konkurrencen vil chtilskynde forskere til at bygge værktøjer, der kan opdage skæve datasæt. Ideen er at skabe en maskinlæringsmodel, der nøjagtigt kan mærke hvert billede i et datasæt med dets hudtone, opfattede køn og aldersgruppe. Konkurrencen slutter den 30. november og har en førstepræmie på $6,000, andenpræmie på $4,000 og tredjepræmie på $2,000.

Udfordringen er baseret på det faktum, at kilden til algoritmisk bias ikke så meget er selve algoritmen, men arten af ​​de data, den trænes på. Automatiserede værktøjer, der hurtigt kan vurdere, hvor afbalanceret en samling of billeder er i forhold til attributter, der ofte er kilder til diskrimination, kunne hjælpe AI-forskere med at undgå klart partiske datakilder.

Men arrangørerne siger, at dette kun er det første skridt i bestræbelserne på at opbygge et værktøjssæt til at vurdere bias i datasæt, algoritmer og applikationer og i sidste ende skabe standarder for, hvordan man kan deal med algoritmisk bias, retfærdighed og forklarlighed.

Det er ikke den eneste sådan indsats. En af lederne af det nye initiativ er Twitters Rumman Chowdhury, som var med til at organisere den første AI-bias bounty-konkurrence sidste år, målrettet mod en algoritme, som platformen brugte til at beskære billeder, der brugere klagede foretrak hvidhudede og mandlige ansigter frem for sorte og kvindelige.

Konkurrencen gav hackere adgang til virksomhedens model og udfordrede dem til at finde fejl i den. Deltagere fundet en lang række problemer, inklmed en præference for stereotype smukke ansigter, en modvilje mod mennesker med hvidt hår (en aldersmarkør), og en præference for memes med engelsk frem for arabisk skrift.

Stanford University har også for nylig afsluttet en konkurrence, der udfordrede teams til at komme med værktøjer designet til at hjælpe folk med at revidere kommercielt implementerede eller open source AI-systemer for diskrimination. Og nuværende og kommende EU-love kan gøre det obligatorisk for virksomheder at revidere deres data og algoritmer regelmæssigt.

Men tager AI bug bounties og algoritmisk revision mainstream og at gøre dem effektive vil være lettere sagt end gjort. Uundgåeligt vil virksomheder, der bygger deres forretninger på deres algoritmer, modstå enhver indsats for at miskreditere dem.

Bygger på erfaringer fra revisionssystemer inden for andre domæner, såsom finans og miljø- og sundhedsbestemmelser, forskere for nylig skitseret nogle af de afgørende ingredienser for effektiv ansvarlighed. En af de vigtigste kriterier de identificerede var den meningsfulde involvering af uafhængige tredjeparter.

Forskerne påpegede, at nuværende frivillige AI-revisioner ofte involverer interessekonflikter, såsom målorganisationen, der betaler for revisionen, hjælper med at indramme revisionens omfang eller har mulighed for at gennemgå resultaterne, før de offentliggøres. Denne bekymring blev afspejlet i en nylig rapport fra Algoritmisk Justice League, hvadch bemærkede overstørrelsend målorganisationers rolle i de nuværende cybersikkerhedsfejls bounty-programmer.

At finde en måde at finansiere og støtte virkelig uafhængige AI-revisorer og fejljægere på vil være en betydelig udfordring, især da de vil kæmpe mod nogle af de mest ressourcestærke virksomheder i verden. Heldigvis ser der dog ud til at være en voksende følelse i industrien af, at det vil være afgørende at tackle dette problem for at bevare brugernes tillid til deres tjenester.

Billede Credit: Jakob Rosen / Unsplash

Tidsstempel:

Mere fra Singularitet Hub