Echipa Ethical AI spune că recompensele părtinitoare pot expune mai rapid defectele algoritmice PlatoBlockchain Data Intelligence. Căutare verticală. Ai.

Echipa Ethical AI spune că recompensele părtinitoare pot expune mai rapid defectele algoritmice

Prejudecățile în sistemele AI se dovedește a fi o piatră de poticnire majoră în eforturile de integrare mai largă a tehnologiei în societatea noastră. O nouă inițiativă care va recompensa cercetătorii pentru că au găsit orice prejudecăți în Sisteme AI ar putea ajuta la rezolvarea problemei.

Efortul este modelat pe recompensele de erori pe care companiile de software le plătesc experților în securitate cibernetică care îi avertizeazăf orice eventuale defecte de securitate ale produselor lor. Ideea nu este una nouă; „recompensele de părtinire” au fost mai întâi propuse de ASunt cercetător și antreprenor JB Rubinovitz în 2018, iar diverse organizații s-au confruntat deja cu astfel de provocări.

Dar noul efort urmărește să creeze un forum continuu pentru competițiile de recompense de părtinire, care este independent de orice organizație anume. Formați din voluntari dintr-o serie de companii, inclusiv Twitter, așa-numiții „Bias Buccaneers” plănuiesc să organizeze competiții regulate, sau „răzvăleți”, și la începutul acestei luni au lansat prima astfel de provocare.

Recompensele bug-urilor sunt o practică standard în securitatea cibernetică care încă nu a găsit un punct de vedere în comunitatea de părtinire algoritmică”, a declarat organizația.nizere spun pe site-ul lor. „În timp ce evenimentele unice inițiale au demonstrat entuziasmul pentru recompense, Bias Buccaneers este prima organizație nonprofit menită să creeze Mutinies în curs de desfășurare, să colaboreze cu companii de tehnologie și să deschidă calea pentru evaluări transparente și reproductibile ale sistemelor AI.”

Această primă competiție are ca scop abordarea prejudecăților din algoritmii de detectare a imaginilor, dar mai degrabă decât să îi determine pe oameni să vizeze anumite sisteme AI, competitia va chcere cercetătorilor să construiască instrumente care pot detecta seturi de date părtinitoare. Ideea este de a crea un model de învățare automată care să poată eticheta cu acuratețe fiecare imagine dintr-un set de date cu nuanța pielii, sexul perceput și grupa de vârstă. Concursul se încheie pe 30 noiembrie și are un premiu întâi de 6,000 USD, premiul al doilea de 4,000 USD și premiul al treilea de 2,000 USD.

Provocarea se bazează pe faptul că de multe ori sursa distorsiunii algoritmice nu este atât algoritmul în sine, ci natura datelor pe care este antrenat. Instrumente automate care pot evalua rapid cât de echilibrată este o colecție of imaginile sunt în relație cu atribute care sunt adesea surse de discriminare ar putea ajuta cercetătorii AI să evite sursele de date în mod clar părtinitoare.

Dar organizatorii spun că acesta este doar primul pas într-un efort de a construi un set de instrumente pentru evaluarea prejudecăților în seturile de date, algoritmi și aplicații și, în cele din urmă, pentru a crea standarde pentru modul de rezolvare.l cu părtinire algoritmică, corectitudine și explicabilitate.

este nu singurul astfel de efort. Unul dintre liderii noului inițiativă este Rumman Chowdhury de la Twitter, care a ajutat anul trecut la organizarea primei competiții de recompense AI bias, vizând un algoritm pe care platforma îl folosește pentru decuparea imaginilor care utilizatorii s-au plâns a favorizat fețele bărbătești și cu pielea albă față de cele negre și feminine.

Concurența le-a oferit hackerilor acces la modelul companiei și i-a provocat să găsească defecte în acesta. Participanții a găsit o gamă largă de probleme, inclusivpreferința pentru fețele stereotip frumoase, o aversiune pentru persoanele cu păr alb (un marker al vârstei) și o preferință pentru meme cu grafie engleză mai degrabă decât arabă.

Universitatea Stanford a încheiat recent, de asemenea, o competiție care a provocat echipele să vină cu instrumente concepute pentru a ajuta oamenii să auditeze sistemele AI implementate comercial sau open-source pentru discriminare. Iar legile UE actuale și viitoare ar putea face obligatoriu pentru companii să-și auditeze în mod regulat datele și algoritmii.

Dar luând Recompense pentru erori AI și auditare algoritmică mainstream și eficientizarea lor va fi mai ușor de spus decât de făcut. Inevitabil, companiile care își construiesc afacerile pe algoritmii lor vor rezista oricăror eforturi de a le discredita.

Bazându-se pe lecțiile din sistemele de audit în alte domenii, cum ar fi finanțe și reglementări de mediu și sănătate, cercetători conturat recent unele dintre ingredientele cruciale pentru o responsabilitate eficientă. Unul dintre cele mai importante Criteriile de au identificat a fost implicarea semnificativă a unor terți independenți.

Cercetătorii au subliniat că actualele audituri voluntare de inteligență artificială implică adesea conflicte de interese, cum ar fi organizația țintă care plătește auditul, ajută la stabilirea domeniului auditului sau are posibilitatea de a revizui constatările înainte de a fi publicate. Această îngrijorare a fost reflectată într-un raport recent al Liga Justiției Algoritmice, which a notat marimead rolul organizațiilor țintă în programele actuale de recompensă pentru erori de securitate cibernetică.

Găsirea unei modalități de a finanța și de a sprijini auditorii AI cu adevărat independenți și vânătorii de erori va fi o provocare semnificativă, mai ales că se vor înfrunta cu unele dintre cele mai bine dotate companii din lume. Din fericire, totuși, pare să existe un sentiment din ce în ce mai mare în industrie că abordarea acestei probleme va fi esențială pentru menținerea încrederii utilizatorilor în serviciile lor.

Credit imagine: Jakob Rosen / Unsplash

Timestamp-ul:

Mai mult de la Singularity Hub