Zespół zajmujący się etyczną sztuczną inteligencją twierdzi, że nagrody za stronniczość mogą szybciej ujawniać wady algorytmiczne PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

Etyczny zespół AI twierdzi, że nagrody za uprzedzenia mogą szybciej ujawnić wady algorytmu

Stronniczość systemów sztucznej inteligencji okazuje się być główną przeszkodą w wysiłkach na rzecz szerszej integracji technologii z naszym społeczeństwem. Nowa inicjatywa, która nagrodzi badaczy za znalezienie jakichkolwiek uprzedzeń w Systemy SI może pomóc w rozwiązaniu problemu.

Wysiłek jest wzorowany na nagrodach za błędy, które firmy produkujące oprogramowanie płacą ekspertom ds. cyberbezpieczeństwa, którzy ostrzegają ichf wszelkie potencjalne luki w zabezpieczeniach ich produktów. Pomysł nie jest nowy; „nagrody za uprzedzenia” były pierwszy zaproponowany przez AJa badacz i przedsiębiorca JB Rubinovitz już w 2018 roku, a różne organizacje już zmagają się z takimi wyzwaniami.

Ale nowy wysiłek ma na celu stworzenie stałego forum dla konkursów nagród za uprzedzenia, które jest niezależne od jakiejkolwiek konkretnej organizacji. Złożona z wolontariuszy z różnych firm, w tym Twittera, tak zwani „Bias Buccaneers” planują organizować regularne konkursy lub „bunty”, a na początku tego miesiąca rozpoczęli pierwsze takie wyzwanie.

"Bug Bounty to standardowa praktyka w cyberbezpieczeństwie, która jeszcze nie znalazła oparcia w społeczności stronniczości algorytmicznej”, orgaNizerowie powiedz na ich stronie internetowej. „Podczas gdy początkowe jednorazowe wydarzenia wykazały entuzjazm dla nagród, Bias Buccaneers jest pierwszą organizacją non-profit, której celem jest tworzenie ciągłych buntów, współpraca z firmami technologicznymi i torowanie drogi do przejrzystych i powtarzalnych ocen systemów sztucznej inteligencji”.

Ten pierwszy konkurs ma na celu zwalczanie stronniczości algorytmów wykrywania obrazów, ale zamiast nakłaniania ludzi do celowania w określone systemy sztucznej inteligencji, Konkurs będzie chzachęcają naukowców do tworzenia narzędzi, które mogą wykrywać tendencyjne zbiory danych. Pomysł polega na stworzeniu modelu uczenia maszynowego, który może dokładnie oznaczyć każdy obraz w zbiorze danych za pomocą odcienia skóry, postrzeganej płci i grupy wiekowej. Konkurs kończy się 30 listopada i ma pierwszą nagrodę 6,000 dolarów, drugą nagrodę 4,000 dolarów i trzecią nagrodę 2,000 dolarów.

Wyzwanie opiera się na fakcie, że często źródłem błędu algorytmicznego jest nie tyle sam algorytm, ale charakter danych, na których jest on szkolony. Zautomatyzowane narzędzia, które mogą szybko ocenić, jak zrównoważona jest kolekcja of obrazy są powiązane z atrybutami, które często są źródłem dyskryminacji, mogą pomóc badaczom SI uniknąć wyraźnie stronniczych źródeł danych.

Ale organizatorzy twierdzą, że to dopiero pierwszy krok w tworzeniu zestawu narzędzi do oceny stronniczości w zestawach danych, algorytmach i aplikacjach, a ostatecznie do stworzenia standardów, jak usuwaćl z nastawieniem algorytmicznym, uczciwością i wyjaśnialnością.

Jego nie jedyny taki wysiłek. Jeden z liderów nowego inicjatywa jest Rumman Chowdhury z Twittera, który w zeszłym roku pomógł zorganizować pierwszy konkurs nagród AI bias, mający na celu algorytm platformy używanej do przycinania zdjęć, które użytkownicy skarżyli się faworyzowali białoskóre i męskie twarze nad czarną i kobiecą.

Konkurs dał hakerom dostęp do modelu firmy i skłonił ich do znalezienia w nim wad. Uczestnicy znalazłem wiele problemów, w tympreferowanie stereotypowo pięknych twarzy, niechęć do osoby z siwymi włosami (znacznik wieku) oraz preferencja dla memów z pismem angielskim, a nie arabskim.

Uniwersytet Stanforda również zakończył niedawno konkurs, w którym skłonił zespoły do ​​opracowania narzędzi mających pomóc ludziom w audycie pod kątem dyskryminacji wdrożonych komercyjnie lub open source systemów sztucznej inteligencji. A obecne i przyszłe przepisy UE mogą nałożyć na firmy obowiązek regularnego audytu swoich danych i algorytmów.

Ale biorąc Nagrody za błędy AI i audyt algorytmiczny mainstream i uczynienie ich skutecznymi będzie łatwiej powiedzieć niż zrobić. Nieuchronnie firmy, które budują swoje biznesy na swoich algorytmach, będą opierać się wszelkim próbom ich zdyskredytowania.

Opierając się na lekcjach z systemów audytu w innych dziedzinach, takich jak finanse oraz przepisy środowiskowe i zdrowotne, naukowcy niedawno opisane niektóre z kluczowych składników skutecznej odpowiedzialności. Jeden z najważniejszych Kryteria zidentyfikowali znaczące zaangażowanie niezależnych stron trzecich.

Badacze zwrócili uwagę, że obecne dobrowolne audyty sztucznej inteligencji często wiążą się z konfliktami interesów, takimi jak organizacja docelowa płacąca za audyt, pomoc w ustaleniu zakresu audytu lub możliwość przeglądu ustaleń przed ich opublikowaniem. Ta obawa została odzwierciedlona w niedawnym raporcie z Algorytmiczna Liga Sprawiedliwości, któryCh zauważył nietypowy rozmiard rola organizacji docelowych w bieżących programach cyberbezpieczeństwa bug bounty.

Znalezienie sposobu na finansowanie i wspieranie prawdziwie niezależnych audytorów AI i łowców błędów będzie poważnym wyzwaniem, zwłaszcza, że ​​będą oni zmierzyli się z niektórymi z najlepiej wyposażonych firm na świecie. Na szczęście w branży rośnie poczucie, że rozwiązanie tego problemu będzie miało kluczowe znaczenie dla utrzymania zaufania użytkowników do ich usług.

Kredytowych Image: Jakub Rozen / Unsplash

Znak czasu:

Więcej z Centrum osobliwości