Prawo mające na celu powstrzymanie stronniczego zatrudniania przez sztuczną inteligencję okazuje się nieskuteczne

Prawo mające na celu powstrzymanie stronniczego zatrudniania przez sztuczną inteligencję okazuje się nieskuteczne

Prawo mające na celu powstrzymanie stronniczego zatrudniania przez sztuczną inteligencję okazuje się nieskuteczne w PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

Badanie skuteczności nowojorskiego prawa dotyczącego stronniczości w algorytmach zatrudniania AI wykazało, że jest ono w dużej mierze nieskuteczne.

Prawo lokalne miasta Nowy Jork nr 144 (LL144). minęło w 2021 r., weszło w życie 1 stycznia ubiegłego roku i obowiązuje od lipca 2023 r. Prawo wymaga od pracodawców korzystających z narzędzi do automatycznego podejmowania decyzji o zatrudnieniu (AEDT) corocznego audytowania ich pod kątem uprzedzeń rasowych i płciowych oraz publikowania tych wyników na swoich stronach internetowych, oraz umieszczać w ogłoszeniach o pracę informację, że korzystają z takiego oprogramowania do podejmowania decyzji o zatrudnieniu.

Badanie przeprowadzone przez naukowców z Cornell University, organizacji non-profit Consumer Reports oraz organizacji non-profit Data & Society Research Institute nie zostało jeszcze opublikowane, ale udostępniono je Rejestr. Ustaliło, że spośród 391 pracodawców objętych próbą tylko 18 opublikowało sprawozdania z audytów wymagane na mocy prawa. Zaledwie 13 pracodawców (z których 11 opublikowało także sprawozdania z kontroli) zamieściło niezbędne zawiadomienia dotyczące przejrzystości.

LL144 „zapewnia pracodawcom niemal całkowitą swobodę w decydowaniu, czy ich system mieści się w zakresie prawa” – powiedział Jacob Metcalf, badacz z Data & Society i jeden z autorów badania Rejestr. „Istnieje wiele sposobów, w jaki pracodawcy mogą uciec od tego zakresu”.

Metcalf powiedział nam, że ustawa LL144 nie wymaga od firm podejmowania jakichkolwiek działań, jeśli jeden z audytów wykaże, że AEDT doprowadziło do dyskryminujących wyników. Nie oznacza to jednak, że firmy, u których stwierdzono stosowanie stronniczych AEDT, nie będą zagrożone.

„Pracodawcy zamieszczający audyt wykazujący odmienne skutki są otwarci na inne formy działania” – powiedział nam Metcalf. „Pozwy cywilne dotyczące dyskryminacji w zatrudnieniu mogą być bardzo kosztowne”.

Metcalf i kilku jego współpracowników pracuje nad drugim artykułem na temat LL144, który koncentruje się na doświadczeniach audytorów dokonujących przeglądu AEDT stosowanych przez firmy z Nowego Jorku. Rejestr zapoznał się z artykułem, który jest obecnie recenzowany. Ustala, że ​​audyty wykazały przypadki dyskryminacji ze strony AEDT.

„Z wywiadów z audytorami wiemy, że pracodawcy płacili za te audyty, a następnie odmawiali publikacji ich publicznie, gdy liczby były złe” – powiedział nam Metcalf. „Ich radca prawny bardziej boi się Komisji ds. Równych Szans w Zatrudnieniu niż Nowego Jorku”.

Prawo miasta Nowy Jork spowalnia przyjęcie podobnych zasad

Przepisy podobne do LL144 zostały uwzględnione w innych jurysdykcjach. Propozycje te w większości utknęły w martwym punkcie, ponieważ prawodawcy zdali sobie sprawę, że wysiłki Nowego Jorku mające na celu zapobieganie stronniczości w zakresie zatrudniania przez sztuczną inteligencję nie były skuteczne.

„Sponsorzy [rachunków] ponownie zastanawiają się nad swoją strukturą. O ile mi wiadomo, nie podjęto żadnych działań w związku z podobnymi przepisami” – powiedział nam Metcalf. Kalifornia za podobne przepisy w 2022 r., podczas gdy Waszyngton i stan Nowy Jork również rozważały wprowadzenie przepisów takich jak LL144.

Unia Europejska Ustawa o sztucznej inteligencji, wstępnie uzgodniona w grudniu 2023 r., umieszcza sztuczną inteligencję wykorzystywaną w procesie rekrutacji w „wysokie ryzyko" Kategoria, znaczenie takie produkty będą musiały zostać poddane przeglądowi przed wprowadzeniem na rynek i przez cały cykl życia. UE nie przyjęła jeszcze swojego prawa.

Stronniczość w AI była dobrze ugruntowane w tym momencie.

Firma Workday zajmująca się oprogramowaniem HR nawet była pozwany w związku z zarzutami, że oprogramowanie rekrutacyjne tej firmy było wykorzystywane do dyskryminacji kandydatów rasy czarnej – dokładnie z tym zjawiskiem, do zwalczania którego zaprojektowano LL144.

Chociaż ustawa LL144 okazała się w dużej mierze nieskuteczna, badacze doszli do wniosku, że nowe prawo stanowi pierwszy krok w kierunku lepszego stanowienia prawa.

„Każdy, kto pracuje nad tymi przepisami, eksperymentuje ze strukturami odpowiedzialności – nie wiemy jeszcze, co się sprawdzi” – powiedział nam Metcalf. „Prawie wszystko, co powiedzieli krytycy społeczeństwa obywatelskiego [na temat ustawy LL144], spełniło się, ale z tego artykułu dowiedzieliśmy się rzeczy, które inne osoby mogą wykorzystać [na potrzeby przyszłych wysiłków w zakresie egzekwowania prawa]”.

Metcalf stwierdził, że jedną z najważniejszych rzeczy, których można się nauczyć z LL144, jest to, że należy rozszerzyć zakres objętego zakresem użytkowania oprogramowania AEDT.

Język w LL144 jest abstrakcyjny i definiuje użycie oprogramowania AEDT jedynie w przypadkach, gdy jest ono „używane do znacznego wspomagania lub zastąpienia uznaniowego podejmowania decyzji przy podejmowaniu decyzji o zatrudnieniu”. To, co oznacza „istotny”, zależy od interpretacji.

Powiedziano nam, że jeśli przyszłe przepisy stworzone w celu zwalczania dyskryminacji AEDT mają być skuteczne, należy porzucić wszelkie zastrzeżenia dotyczące stosowania algorytmów zatrudniania AI.

„Jeśli system renderuje partyturę, ma to swój zakres. Kropka” – powiedział nam Metcalf. „Dawanie pracodawcom swobody [w podejmowaniu decyzji, czy korzystanie przez nich z AEDT wchodzi w zakres ustawy LL144] tworzy przewrotne zachęty, które podważają rzeczywistą odpowiedzialność, jaką mogłoby osiągnąć to prawo”. ®

Znak czasu:

Więcej z Rejestr