Non-profit bygger nettsted for å spore økende AI-uhell

Non-profit bygger nettsted for å spore økende AI-uhell

Non-profit bygger nettsted for å spore økende AI-uhell med PlatoBlockchain Data Intelligence. Vertikalt søk. Ai.

Intervju Falsk bilder av Donald Trump støttet av sminkede svarte velgere, ungdomsskoleelever som lager pornografiske deepfakes av sine kvinnelige klassekamerater, og Googles Gemini chatbot sviktende å generere bilder av hvite mennesker nøyaktig.

Dette er noen av de siste katastrofene som er oppført på AI-hendelsesdatabase – et nettsted som holder oversikt over alle de forskjellige måtene teknologien går galt på.

Opprinnelig lansert som et prosjekt i regi av Partnership On AI, en gruppe som prøver å sikre at AI kommer samfunnet til gode, er AI Incident Database nå en ideell organisasjon finansiert av Underwriters Laboratories – den største og eldste (est. 1894) uavhengige testlaboratorium i USA. Den tester alle slags produkter – fra møbler til datamus – og nettstedet har katalogisert over 600 unike automatiserings- og AI-relaterte hendelser så langt.

"Det er en enorm informasjonsasymmetri mellom produsentene av AI-systemer og offentlige forbrukere - og det er ikke rettferdig", hevdet Patrick Hall, en assisterende professor ved George Washington University School of Business, som for tiden sitter i AI Incident Databases styre. . Han fortalte Registeret: "Vi trenger mer åpenhet, og vi føler at det er vår jobb bare å dele den informasjonen."

AI Incident Database er modellert etter CVE-programmet satt opp av den ideelle organisasjonen MITREEller National Highway Transport Safety Administration nettsted som rapporterer offentlig avslørte cybersikkerhetssårbarheter og kjøretøykrasj. "Hver gang det er en flyulykke, togulykke eller en stor cybersikkerhetshendelse, har det blitt vanlig praksis over flere tiår å registrere hva som skjedde, slik at vi kan prøve å forstå hva som gikk galt og ikke gjenta det."

Nettstedet administreres for tiden av rundt ti personer, pluss en håndfull frivillige og entreprenører som gjennomgår og legger ut AI-relaterte hendelser på nettet. Heather Frase, en senior stipendiat ved Georgetown's Senter for sikkerhet og fremvoksende teknologi fokusert på AI Assessment og en AI Incident Database-direktør, hevdet at nettstedet er unikt ved at det fokuserer på virkelige virkninger fra risikoen og skadene til AI – ikke bare sårbarheter og feil i programvare.

Organisasjonen samler for tiden inn hendelser fra mediedekning og vurderer saker rapportert av folk på Twitter. AI Incident Database logget 250 unike hendelser før utgivelsen av ChatGPT i november 2022, og viser nå over 600 unike hendelser.

Overvåking av problemer med AI over tid avslører interessante trender, og kan tillate folk å forstå teknologiens reelle, nåværende skader.

George Washington University's Hall avslørte at omtrent halvparten av rapportene i databasen er relatert til generativ AI. Noen av dem er "morsomme, dumme ting" som tvilsomme produkter solgt på Amazon med tittelen: "Jeg kan ikke oppfylle den forespørselen" - et tydelig tegn på at selgeren brukte en stor språkmodell for å skrive beskrivelser - eller andre forekomster av AI-generert spam. Men noen er "virkelig deprimerende og alvorlige" - som en Cruise-robotaxi som kjører over og drar en kvinne under hjulene i en ulykke i San Francisco.

"AI er for det meste et ville vesten akkurat nå, og holdningen er å gå fort og bryte ting," beklaget han. Det er ikke klart hvordan teknologien former samfunnet, og teamet håper AI Incident Database kan gi innsikt i måtene den blir misbrukt på og synliggjøre utilsiktede konsekvenser – i håp om at utviklere og beslutningstakere er bedre informert slik at de kan forbedre modellene sine eller regulere de mest presserende risikoene.

«Det er mye hype rundt. Folk snakker om eksistensiell risiko. Jeg er sikker på at AI kan utgjøre svært alvorlige risikoer for menneskelig sivilisasjon, men det er klart for meg at noen av disse mer virkelige risikoene – som mange skader forbundet med selvkjørende biler eller, du vet, opprettholde skjevhet gjennom algoritmer som brukes innen forbruksfinansiering eller sysselsetting. Det er det vi ser.»

«Jeg vet at vi går glipp av mye, ikke sant? Ikke alt blir rapportert eller fanget opp av media. Mange ganger innser kanskje ikke folk engang at skaden de opplever kommer fra en AI,» observerte Frase. "Jeg forventer at fysisk skade vil øke mye. Vi ser [for det meste] psykiske skader og andre immaterielle skader som skjer fra store språkmodeller – men når vi først har generativ robotikk, tror jeg fysisk skade vil øke mye.»

Frase er mest bekymret for måtene AI kan erodere menneskerettigheter og sivile friheter. Hun tror at innsamling av AI-hendelser vil vise om retningslinjer har gjort teknologien tryggere over tid.

"Du må måle ting for å fikse ting," la Hall til.

Organisasjonen er alltid på jakt etter frivillige og har for tiden fokus på å fange opp flere hendelser og øke bevisstheten. Frase understreket at gruppens medlemmer ikke er AI-luddites: «Vi kommer nok frem som ganske anti-AI, men det er vi ikke. Vi ønsker faktisk å bruke det. Vi vil bare ha de gode tingene."

Hall var enig. "For å holde teknologien fremover, må noen bare gjøre jobben for å gjøre den tryggere," sa han. ®

Tidstempel:

Mer fra Registeret