Az etikus mesterséges intelligencia csapata szerint az elfogult jutalmak gyorsabban feltárhatják a PlatoBlockchain adatintelligencia algoritmikus hibáit. Függőleges keresés. Ai.

Az etikus mesterséges intelligencia csapata szerint az elfogult jutalmak gyorsabban feltárhatják az algoritmikus hibákat

Az AI-rendszerek torzítása komoly akadálynak bizonyul a technológia társadalmunkba való szélesebb körű integrálására irányuló erőfeszítések során. Egy új kezdeményezés, amely megjutalmazza a kutatókat az előítéletek felfedezéséért AI rendszerek segíthet a probléma megoldásában.

Az erőfeszítést a szoftvercégek által a kiberbiztonsági szakértőknek fizetett hibajavítások mintájára hozták, akik figyelmeztetik őketf termékeik esetleges biztonsági hibáit. Az ötlet nem új; „elfogultsági jutalmak” voltak először javasolt írta: AJB Rubinovitz kutató és vállalkozó voltam még 2018-ban, és különböző szervezetek már futottak ilyen kihívásokkal.

Az új törekvés azonban arra törekszik, hogy egy folyamatos fórumot hozzon létre az elfogultság jutalmazó versenyek számára, amely független minden egyes szervezettől. A különféle cégek, köztük a Twitter önkénteseiből álló úgynevezett „Bias Buccaneers” rendszeres versenyeket vagy „zendüléseket” tervez, és a hónap elején elindította az első ilyen kihívást.

"A hibajavaslatok bevett gyakorlat a kiberbiztonságban, amely még nem találta meg a lábát az algoritmikus elfogultság közösségében” – mondta az orga.nizerek mondjuk a honlapjukon. „Míg a kezdeti egyszeri események lelkesedést mutattak a jutalmak iránt, a Bias Buccaneers az első nonprofit szervezet, amelynek célja folyamatos lázadások létrehozása, technológiai cégekkel való együttműködés, valamint az AI-rendszerek átlátható és reprodukálható értékelésének előkészítése.”

Ennek az első versenynek a célja a képészlelési algoritmusok torzításának leküzdése, de nem arra készteti az embereket, hogy meghatározott AI-rendszereket célozzanak meg, a verseny lesz chrábírja a kutatókat, hogy olyan eszközöket hozzanak létre, amelyek képesek észlelni az elfogult adatkészleteket. Az ötlet az, hogy olyan gépi tanulási modellt hozzunk létre, amely pontosan meg tudja jelölni az adathalmaz minden egyes képét a bőrtónusával, az észlelt nemével és korcsoportjával. A verseny november 30-án ér véget és az első díja 6,000 dollár, a második díja 4,000 dollár, a harmadik díja pedig 2,000 dollár.

A kihívás abból a tényből fakad, hogy az algoritmikus torzítás forrása gyakran nem annyira maga az algoritmus, hanem a betanított adatok természete. Automatizált eszközök, amelyek gyorsan felmérhetik, mennyire kiegyensúlyozott egy gyűjtemény of A képek olyan attribútumokhoz kapcsolódnak, amelyek gyakran a diszkrimináció forrásai, segíthetnek az AI-kutatóknak elkerülni az egyértelműen elfogult adatforrásokat.

A szervezők azonban azt mondják, hogy ez csak az első lépés az adatkészletek, algoritmusok és alkalmazások torzításának értékelésére szolgáló eszköztár felépítésében, és végül szabványok létrehozásában a deal algoritmikus torzítással, igazságossággal és magyarázhatósággal.

Ez nem az egyetlen ilyen erőfeszítés. Az új egyik vezetője kezdeményezés Rumman Chowdhury, a Twitter tagja, aki tavaly segített megszervezni az első mesterséges intelligencia elfogultságért járó jutalomversenyt, egy olyan algoritmust célozva meg, amelyet a platformon használt képek kivágására használtak. panaszkodtak a felhasználók a fehér bőrű és férfi arcokat részesítette előnyben a fekete és a női arcokkal szemben.

A verseny hozzáférést biztosított a hackereknek a cég modelljéhez, és kihívta őket, hogy találjanak benne hibákat. Belépők sokféle problémát talált, beleértvea sztereotipikusan szép arcok előnyben részesítése, iránti idegenkedés fehér hajú emberek (az életkor jelzője), és a mémek előnyben részesítése inkább angol, mint arab betűkkel.

A Stanford Egyetem a közelmúltban zárt egy versenyt is, amely kihívást jelentett a csapatoknak, hogy olyan eszközöket dolgozzanak ki, amelyek segítik az embereket a kereskedelmi forgalomba hozott vagy nyílt forráskódú AI-rendszerek diszkrimináció szempontjából történő ellenőrzésében. A jelenlegi és a készülő uniós jogszabályok pedig kötelezővé tehetik a cégek számára adataik és algoritmusaik rendszeres ellenőrzését.

De szedni AI hibadíjak és algoritmikus auditálás egyszerűbb lesz mondani, mint megtenni. Elkerülhetetlen, hogy azok a vállalatok, amelyek az algoritmusaikra építik üzleti tevékenységüket, ellenállnak minden olyan erőfeszítésnek, amely lejáratja őket.

Az ellenőrzési rendszerek tanulságaira építve más területeken, mint például a pénzügy, valamint a környezetvédelmi és egészségügyi szabályozás, kutatók a közelmúltban vázolta a hatékony elszámoltathatóság néhány kulcsfontosságú összetevője. Az egyik legfontosabb kritériumok független harmadik felek érdemi bevonását azonosították.

A kutatók rámutattak, hogy a jelenlegi önkéntes mesterségesintelligencia-auditok gyakran összeférhetetlenséggel járnak, például a célszervezet fizeti az auditot, segít meghatározni az audit hatókörét, vagy lehetősége van az eredmények áttekintésére, mielőtt azokat nyilvánosságra hozzák. Ezt az aggodalmat tükrözte egy közelmúltbeli jelentés Algorithmic Justice League, which megjegyezte a túlméretetd a célszervezetek szerepe a jelenlegi kiberbiztonsági hibaprogramokban.

A valóban független mesterségesintelligencia-auditorok és hibavadászok finanszírozásának és támogatásának módját megtalálni jelentős kihívás lesz, különösen azért, mert a világ legerősebb erőforrásokkal rendelkező vállalataival fognak szembenézni. Szerencsére azonban úgy tűnik, hogy az iparágon belül egyre inkább érezhető, hogy ennek a problémának a kezelése kritikus fontosságú lesz a felhasználók szolgáltatásaikba vetett bizalmának megőrzéséhez.

Kép: Jakob Rosen / Unsplash

Időbélyeg:

Még több Singularity Hub