Organizacja non-profit tworzy witrynę umożliwiającą śledzenie rosnącej liczby wpadek związanych ze sztuczną inteligencją

Organizacja non-profit tworzy witrynę umożliwiającą śledzenie rosnącej liczby wpadek związanych ze sztuczną inteligencją

Organizacja non-profit tworzy witrynę do śledzenia rosnących wpadek AI PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

Wywiad Fałszywy zdjęcia Donalda Trumpa wspieranego przez zmyślonych czarnych wyborców, gimnazjalistów tworzących pornograficzne fałszywe koleżanki z klasy oraz chatbota Google Gemini nie do dokładnego generowania zdjęć białych ludzi.

Oto niektóre z najnowszych katastrof wymienionych na liście Baza danych incydentów AI – strona internetowa, na której można śledzić różne awarie technologii.

Początkowo uruchomiona jako projekt pod auspicjami Partnership On AI, grupy, która stara się zapewnić społeczeństwu korzyści ze sztucznej inteligencji, AI Incident Database jest obecnie organizacją non-profit finansowaną przez Underwriters Laboratories – największą i najstarszą (założoną w 1894 r.) niezależną laboratorium badawcze w USA. Testuje wszelkiego rodzaju produkty – od mebli po myszy komputerowe – a na swojej stronie internetowej skatalogowano dotychczas ponad 600 unikalnych incydentów związanych z automatyzacją i sztuczną inteligencją.

„Istnieje ogromna asymetria informacji między twórcami systemów sztucznej inteligencji a konsumentami publicznymi – i to jest niesprawiedliwe” – argumentował Patrick Hall, adiunkt w George Washington University School of Business, który obecnie zasiada w zarządzie AI Incident Database . Powiedział Rejestr: „Potrzebujemy większej przejrzystości i uważamy, że naszym zadaniem jest po prostu dzielenie się tymi informacjami”.

Baza danych zdarzeń AI jest wzorowana na programie CVE utworzonym przez organizację non-profit MITRALub Krajowa Administracja Bezpieczeństwa Transportu Drogowego witryna internetowa zgłaszająca publicznie ujawnione luki w zabezpieczeniach cybernetycznych i wypadki pojazdów. „Za każdym razem, gdy dochodzi do katastrofy lotniczej, katastrofy kolejowej lub dużego incydentu związanego z bezpieczeństwem cybernetycznym, od dziesięcioleci powszechną praktyką stało się rejestrowanie tego, co się wydarzyło, abyśmy mogli spróbować zrozumieć, co poszło nie tak, a następnie nie powtarzać tego”.

Obecnie witryną zarządza około dziesięciu osób oraz garstka wolontariuszy i wykonawców, którzy przeglądają i publikują w Internecie incydenty związane ze sztuczną inteligencją. Heather Frase, starsza pracownica w Georgetown's Centrum bezpieczeństwa i nowych technologii zajmujący się oceną sztucznej inteligencji i dyrektorem bazy danych zdarzeń związanych z AI, stwierdził, że witryna jest wyjątkowa, ponieważ koncentruje się na rzeczywistych skutkach zagrożeń i szkód związanych ze sztuczną inteligencją – a nie tylko lukach w zabezpieczeniach i błędach w oprogramowaniu.

Organizacja zbiera obecnie informacje o incydentach z doniesień medialnych i przegląda problemy zgłaszane przez użytkowników na Twitterze. Baza danych incydentów AI zarejestrowała 250 unikalnych incydentów przed wydaniem ChatGPT w listopadzie 2022 r. i obecnie zawiera listę ponad 600 unikalnych incydentów.

Monitorowanie problemów ze sztuczną inteligencją na przestrzeni czasu ujawnia interesujące trendy i może pozwolić ludziom zrozumieć rzeczywiste, aktualne szkody, jakie niesie ze sobą ta technologia.

Hall Uniwersytetu George'a Washingtona ujawnił, że mniej więcej połowa raportów w bazie danych dotyczy generatywnej sztucznej inteligencji. Niektóre z nich to „zabawne, głupie rzeczy”. podejrzane produkty sprzedawany na Amazonie zatytułowany: „Nie mogę spełnić tej prośby” – wyraźny znak, że sprzedawca użył dużego modelu językowego do napisania opisów – lub inne przypadki spamu generowanego przez sztuczną inteligencję. Ale niektóre są „naprawdę przygnębiające i poważne” – jak robotaxi Cruise'a, który podczas wypadku w San Francisco przejeżdża i ciągnie kobietę pod kołami.

„Sztuczna inteligencja to obecnie głównie dziki zachód, a nastawienie jest takie, aby działać szybko i niszczyć wszystko” – ubolewał. Nie jest jasne, w jaki sposób technologia ta kształtuje społeczeństwo, a zespół ma nadzieję, że baza danych zdarzeń związanych z AI może dostarczyć wglądu w sposoby jej niewłaściwego wykorzystania i ukazać niezamierzone konsekwencje – w nadziei, że programiści i decydenci będą lepiej poinformowani, dzięki czemu będą mogli ulepszyć swoje modele lub uregulować kwestie najpilniejsze zagrożenia.

„Wokoło jest mnóstwo szumu. Ludzie mówią o ryzyku egzystencjalnym. Jestem pewien, że sztuczna inteligencja może stwarzać bardzo poważne ryzyko dla cywilizacji ludzkiej, ale jest dla mnie jasne, że niektóre z nich stanowią ryzyko bardziej rzeczywiste – jak wiele obrażeń związanych z samochodami autonomicznymi lub, wiesz, utrwalanie uprzedzeń poprzez stosowane algorytmy w finansach konsumenckich lub zatrudnieniu. To właśnie widzimy.”

„Wiem, że wiele tracimy, prawda? Nie wszystko jest zgłaszane i rejestrowane przez media. Często ludzie mogą nawet nie zdawać sobie sprawy, że krzywda, jakiej doświadczają, pochodzi od sztucznej inteligencji” – zauważył Frase. „Spodziewam się, że obrażenia fizyczne znacznie wzrosną. Widzimy [głównie] szkody psychiczne i inne szkody niematerialne wynikające z dużych modeli językowych – ale kiedy będziemy mieli robotykę generatywną, myślę, że szkody fizyczne znacznie wzrosną”.

Frase jest najbardziej zaniepokojony sposobami, w jakie sztuczna inteligencja może podważyć prawa człowieka i wolności obywatelskie. Wierzy, że zbieranie informacji o incydentach związanych z sztuczną inteligencją pokaże, czy z biegiem czasu wprowadzone regulacje sprawiły, że technologia stała się bezpieczniejsza.

„Aby coś naprawić, trzeba coś mierzyć” – dodał Hall.

Organizacja zawsze poszukuje wolontariuszy, a obecnie koncentruje się na rejestrowaniu większej liczby incydentów i zwiększaniu świadomości. Frase podkreślił, że członkowie grupy nie są luddystami AI: „Prawdopodobnie wychodzimy na przeciwników sztucznej inteligencji, ale tak nie jest. Właściwie to chcemy z tego skorzystać. Chcemy tylko dobrych rzeczy.”

Sala zgodziła się. „Aby w pewnym sensie utrzymać postęp technologii, ktoś musi po prostu wykonać pracę, aby uczynić ją bezpieczniejszą” – powiedział. ®

Znak czasu:

Więcej z Rejestr