Un site non-profit creează site-uri pentru a urmări accidentele în creștere ale AI

Un site non-profit creează site-uri pentru a urmări accidentele în creștere ale AI

Non-profit builds site to track surging AI mishaps PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Interviu Fals imagini a lui Donald Trump susținut de alegători negri inventați, elevi de gimnaziu care creează deepfake-uri pornografice ale colegelor lor de clasă și chatbot-ul Google Gemini în lipsa pentru a genera imagini cu oameni albi cu precizie.

Acestea sunt câteva dintre cele mai recente dezastre enumerate pe Baza de date de incidente AI – un site web care urmărește toate modurile în care tehnologia merge prost.

Lansată inițial ca proiect sub auspiciile Partnership On AI, un grup care încearcă să asigure că AI aduce beneficii societății, AI Incident Database este acum o organizație non-profit finanțată de Underwriters Laboratories – cea mai mare și mai veche (în 1894) independentă. laborator de testare din Statele Unite. Testează tot felul de produse – de la mobilier la mouse-uri de computer – iar site-ul său web a catalogat până acum peste 600 de incidente unice legate de automatizare și AI.

„Există o asimetrie uriașă a informațiilor între producătorii de sisteme AI și consumatorii publici – și asta nu este corect”, a argumentat Patrick Hall, profesor asistent la George Washington University School of Business, care face parte în prezent în Consiliul de administrație al bazei de date de incidente AI. . El a spus Registrul: „Avem nevoie de mai multă transparență și credem că este treaba noastră doar să împărtășim aceste informații.”

Baza de date de incidente AI este modelată pe programul CVE creat de organizația non-profit MITRA, Sau Administrația Națională pentru Siguranța Transporturilor pe Autostrăzi site-ul web care raportează vulnerabilități de securitate cibernetică dezvăluite public și accidente de vehicule. „De fiecare dată când are loc un accident de avion, un accident de tren sau un incident mare de securitate cibernetică, a devenit o practică obișnuită de-a lungul deceniilor să înregistrăm ceea ce s-a întâmplat, astfel încât să putem încerca să înțelegem ce a mers prost și apoi să nu repetăm.”

Site-ul web este în prezent gestionat de aproximativ zece persoane, plus o mână de voluntari și contractori care analizează și postează online incidente legate de IA. Heather Frase, un om senior la Georgetown's Centrul pentru securitate și tehnologie emergentă concentrat pe evaluarea AI și un director al bazei de date de incidente AI, a susținut că site-ul web este unic prin faptul că se concentrează pe impactul din lumea reală a riscurilor și daunelor AI - nu doar vulnerabilitățile și erorile din software.

În prezent, organizația colectează incidente din media și analizează problemele raportate de oameni pe Twitter. Baza de date de incidente AI a înregistrat 250 de incidente unice înainte de lansarea ChatGPT în noiembrie 2022, iar acum listează peste 600 de incidente unice.

Monitorizarea problemelor cu AI de-a lungul timpului dezvăluie tendințe interesante și ar putea permite oamenilor să înțeleagă daunele reale, actuale ale tehnologiei.

Sala Universității George Washington a dezvăluit că aproximativ jumătate dintre rapoartele din baza de date sunt legate de inteligența artificială generativă. Unele dintre ele sunt „lucruri amuzante, prostii”. produse dubioase vândut pe Amazon intitulat: „Nu pot îndeplini acea cerere” – un semn clar că vânzătorul a folosit un model de limbă mare pentru a scrie descrieri – sau alte cazuri de spam generat de AI. Dar unii sunt „cu adevărat deprimante și serioase” – cum ar fi un robot-axia Cruise care trece peste și târăște o femeie sub roți într-un accident din San Francisco.

„AI este în mare parte un vest sălbatic în acest moment, iar atitudinea este de a merge repede și de a sparge lucrurile”, s-a plâns el. Nu este clar cum tehnologia modelează societatea, iar echipa speră că baza de date privind incidentele AI poate oferi informații despre modurile în care este utilizată greșit și să evidențieze consecințele nedorite – în speranța că dezvoltatorii și factorii de decizie sunt mai bine informați, astfel încât să își poată îmbunătăți modelele sau reglementa. cele mai presante riscuri.

„Există mult hype în jur. Oamenii vorbesc despre risc existențial. Sunt sigur că inteligența artificială poate prezenta riscuri foarte severe pentru civilizația umană, dar pentru mine este clar că unele dintre aceste riscuri din lumea reală - cum ar fi multe răni asociate cu mașinile care conduce singur sau, știți, perpetuarea părtinirii prin algoritmi care sunt utilizați. în finanțare de consum sau angajare. Asta vedem noi.”

„Știu că ne lipsesc multe, nu? Nu totul este raportat sau capturat de mass-media. De multe ori este posibil ca oamenii să nu realizeze nici măcar că răul pe care îl experimentează vine de la o IA”, a observat Frase. „Mă aştept ca vătămările fizice să crească foarte mult. Observăm [mai ales] vătămări psihologice și alte daune intangibile care apar din modelele mari de limbaj – dar odată ce vom avea robotica generativă, cred că vătămările fizice vor crește foarte mult.”

Frase este cel mai preocupat de modul în care AI ar putea eroda drepturile omului și libertățile civile. Ea crede că colectarea incidentelor AI va arăta dacă politicile au făcut tehnologia mai sigură în timp.

„Trebuie să măsori lucrurile pentru a le repara”, a adăugat Hall.

Organizația caută mereu voluntari și în prezent se concentrează pe capturarea mai multor incidente și creșterea gradului de conștientizare. Frase a subliniat că membrii grupului nu sunt niște ludici cu AI: „Probabil că suntem destul de anti-AI, dar nu suntem. Chiar vrem să-l folosim. Vrem doar lucruri bune.”

Hall a fost de acord. „Pentru a menține tehnologia în mișcare, cineva trebuie doar să facă treaba pentru a o face mai sigură”, a spus el. ®

Timestamp-ul:

Mai mult de la Registrul