Non-profit bygger websted for at spore stigende AI-uheld

Non-profit bygger websted for at spore stigende AI-uheld

Non-profit builds site to track surging AI mishaps PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Interview False billeder af Donald Trump støttet af sminkede sorte vælgere, mellemskoleelever, der laver pornografiske deepfakes af deres kvindelige klassekammerater og Googles Gemini chatbot svigtende at generere billeder af hvide mennesker nøjagtigt.

Dette er nogle af de seneste katastrofer, der er opført på AI Incident Database – et websted, der holder styr på alle de forskellige måder, teknologien går galt på.

Oprindeligt lanceret som et projekt i regi af Partnership On AI, en gruppe, der forsøger at sikre AI gavner samfundet, AI Incident Database er nu en non-profit organisation finansieret af Underwriters Laboratories - den største og ældste (est. 1894) uafhængige testlaboratorium i USA. Den tester alle slags produkter – fra møbler til computermus – og dens hjemmeside har indtil videre katalogiseret over 600 unikke automatiserings- og AI-relaterede hændelser.

"Der er en enorm informationsasymmetri mellem skaberne af AI-systemer og offentlige forbrugere - og det er ikke fair", argumenterede Patrick Hall, en assisterende professor ved George Washington University School of Business, som i øjeblikket sidder i AI Incident Databases bestyrelse. . Han fortalte Registret: "Vi har brug for mere gennemsigtighed, og vi føler, at det er vores opgave bare at dele den information."

AI Incident Database er modelleret efter CVE-programmet oprettet af non-profit MITRAEller National Highway Transport Safety Administration websted, der rapporterer offentligt afslørede cybersikkerhedssårbarheder og køretøjsulykker. "Hver gang der er et flystyrt, togulykke eller en stor cybersikkerhedshændelse, er det blevet almindelig praksis gennem årtier at registrere, hvad der skete, så vi kan prøve at forstå, hvad der gik galt og så ikke gentage det."

Hjemmesiden administreres i øjeblikket af omkring ti personer, plus en håndfuld frivillige og entreprenører, der gennemgår og poster AI-relaterede hændelser online. Heather Frase, en senior stipendiat hos Georgetown's Center for sikkerhed og ny teknologi fokuseret på AI Assessment og en AI Incident Database-direktør, hævdede, at hjemmesiden er unik ved, at den fokuserer på den virkelige verden påvirkninger fra risici og skader ved AI - ikke kun sårbarheder og fejl i software.

Organisationen indsamler i øjeblikket hændelser fra mediedækning og gennemgår problemer rapporteret af folk på Twitter. AI Incident Database loggede 250 unikke hændelser før udgivelsen af ​​ChatGPT i november 2022, og lister nu over 600 unikke hændelser.

Overvågning af problemer med kunstig intelligens over tid afslører interessante tendenser og kan give folk mulighed for at forstå teknologiens reelle, aktuelle skader.

George Washington University's Hall afslørede, at omkring halvdelen af ​​rapporterne i databasen er relateret til generativ AI. Nogle af dem er "sjove, fjollede ting". risikable produkter sælges på Amazon med titlen: "Jeg kan ikke opfylde den anmodning" - et tydeligt tegn på, at sælgeren brugte en stor sprogmodel til at skrive beskrivelser - eller andre forekomster af AI-genereret spam. Men nogle er "virkelig deprimerende og alvorlige" - som en Cruise-robotakse, der kører over og trækker en kvinde under hjulene i en ulykke i San Francisco.

"AI er for det meste et vilde vesten lige nu, og holdningen er at gå hurtigt og bryde tingene," beklagede han. Det er ikke klart, hvordan teknologien former samfundet, og teamet håber, at AI Incident Database kan give indsigt i, hvordan den bliver misbrugt og fremhæve utilsigtede konsekvenser - i håbet om, at udviklere og politiske beslutningstagere er bedre informeret, så de kan forbedre deres modeller eller regulere de mest presserende risici.

"Der er en masse hype rundt omkring. Folk taler om eksistentiel risiko. Jeg er sikker på, at kunstig intelligens kan udgøre meget alvorlige risici for den menneskelige civilisation, men det er klart for mig, at nogle af disse mere virkelige risici – som masser af skader forbundet med selvkørende biler eller, du ved, fastholdelse af skævhed gennem algoritmer, der bruges i forbrugerfinansiering eller beskæftigelse. Det er det, vi ser."

"Jeg ved, at vi går glip af meget, ikke? Ikke alt bliver rapporteret eller fanget af medierne. Mange gange indser folk måske ikke engang, at den skade, de oplever, kommer fra en AI," bemærkede Frase. "Jeg forventer, at fysiske skader vil stige meget. Vi ser [for det meste] psykiske skader og andre immaterielle skader, der sker fra store sprogmodeller - men når vi først har generativ robotteknologi, tror jeg, at fysisk skade vil stige meget."

Frase er mest bekymret over, hvordan kunstig intelligens kan udhule menneskerettigheder og borgerlige frihedsrettigheder. Hun mener, at indsamling af AI-hændelser vil vise, om politikker har gjort teknologien mere sikker over tid.

"Du skal måle ting for at ordne ting," tilføjede Hall.

Organisationen er altid på udkig efter frivillige og har i øjeblikket fokus på at fange flere hændelser og øge opmærksomheden. Frase understregede, at gruppens medlemmer ikke er AI-luddites: "Vi kommer nok til at være ret anti-AI, men det er vi ikke. Vi vil faktisk gerne bruge det. Vi vil bare have de gode ting."

Hall var enig. "For at holde teknologien fremad, skal nogen bare gøre arbejdet for at gøre det mere sikkert," sagde han. ®

Tidsstempel:

Mere fra Registret