ChatGPT ajastul on AI mudelid tohutult populaarsed... ja kergesti ohustatavad – Mass Tech Leadership Council

ChatGPT ajastul on AI mudelid tohutult populaarsed… ja kergesti ohustatavad – Mass Tech Leadership Council

ChatGPT ajastul on AI mudelid tohutult populaarsed... ja kergesti ohustatavad – Mass Tech Leadership Council PlatoBlockchain Data Intelligence. Vertikaalne otsing. Ai.

Ammu enne 2023. aasta lõppu oli see juba kroonitud generatiivse AI aastaks. Ajendatuna selliste mudelite tulekust nagu ChatGPT, mis andsid kasutajate juhistele üksikasjalikke ja jahmatavalt inimlikke vastuseid, hakkasid nii eksperdid kui ka algajad mõtlema tehnoloogia võimalike mõjude üle tööle, haridusele ja loovusele.

Kuid kuigi tänapäevased suured keelemudelid (LLM-id) on hämmastavalt võimekad, on nad ka šokeerivalt haavatavad, ütleb Khoury professor Alina Oprea. Ta on uurinud tehisintellekti küberjulgeoleku kontekstis üle kümne aasta ja on hiljuti kaasautor aruandele, mis käsitleb neid rünnakuid tehisintellekti vastu – kuidas need toimivad, kuidas neid klassifitseeritakse ja kuidas neid saab (ja ei saa) olla. leevendatud.

"Generatiivset AI-d on tõesti raske turvaliselt hoida," ütleb Oprea. "Nende mudelite ulatus ja nende koolitusandmed aja jooksul kasvavad, mis muudab need rünnakud ainult lihtsamaks. Ja kui hakkate rääkima generatiivsest tehisintellektist, mis ulatub kaugemale tekstist, vaid piltidest ja kõnest, muutub turvalisus väga lahtiseks küsimuseks.

Kaubandusministeeriumi riikliku standardite ja tehnoloogia instituudi (NIST) avaldatud aruanne on värskendus aruandest, mille Oprea koostas eelmisel aastal koos NISTi apostol Vassileviga. See esialgne aruanne käsitles traditsioonilisemat ennustavat tehisintellekti, kuid generatiivne tehisintellekt on sellest ajast alates plahvatuslikult populaarsust kogunud. Opera ja Vassilev tervitasid projekti pädevuse laiendamiseks generatiivseid tehisintellekti eksperte Alie Fordyce'i ja Hyrum Andersoni ettevõttest Robust Intelligence.

"Nüüd on meil akadeemikud, valitsus ja tööstus töötavad koos," märkis Oprea, "mis on raporti sihtrühm."

Aruande kohaselt võlgnevad generatiivsed AI mudelid oma haavatavuse mitmesugustele teguritele. Ühe jaoks märgib Oprea, et enamik rünnakuid on "üsna lihtne paigaldada ja nõuavad minimaalseid teadmisi tehisintellekti süsteemist". Teiseks on mudelite tohutud koolitusandmekogumid inimeste jälgimiseks ja kinnitamiseks liiga suured. Ja mudelite aluseks olev kood ei ole automatiseeritud; see tugineb inimlikule mõõdutundele ja on avatud inimeste pahatahtlikule sekkumisele.

Teadlaste neliku sõnul on tulemuseks neli peamist tüüpi rünnakuid, mis ajavad tehisintellekti süsteeme segadusse ja põhjustavad nende talitlushäireid: kõrvalehoidmisrünnakud, mis muudavad mudeli sisendeid, et muuta selle vastuseid, mürgistusrünnakud, mis rikuvad mudeli aluseks olevaid algoritme või koolitusandmeid, privaatsus. rünnakud, mis meelitavad mudelit avaldama tundlikke koolitusandmeid, nagu meditsiiniline teave, ja kuritarvitamise rünnakud, mis suunavad vale teavet seaduslikesse allikatesse, millest mudel õpib. Mudeli sisenditega manipuleerides saavad ründajad selle väljundid eelnevalt valida.

"Seda saab kasutada ärilistel eesmärkidel, reklaamimiseks, pahavara rämpsposti või vaenu õhutamiseks – asju, mida mudel tavaliselt ei tekita," selgitab Oprea.

Ennast üle koormamata saavad pahatahtlikud tegutsejad kontrollida veebiandmeid, mida tehisintellekti mudel treenib, avada tagaukse ja seejärel vargsi juhtida mudeli käitumist sealt. Arvestades nende mudelite plahvatuslikku populaarsust, oleksid sellised tagauksed iseenesest piisavalt murettekitavad. Kuid kahju ei lõpe sellega.

"Meil on nüüd need integreeritud rakendused, mis kasutavad LLM-e. Näiteks loob ettevõte e-posti agendi, mis integreerub taustal LLM-iga ja saab nüüd teie e-kirju lugeda ja teie nimel meile saata, ”ütleb Oprea. "Kuid ründajad võivad kasutada sama tööriista pahavara ja rämpsposti saatmiseks tuhandetele inimestele. Rünnakupind on suurenenud, kuna integreerime LLM-id nendesse rakendustesse.

Nii hävitavad ja ohtlikud kui vihakõne ja massiline rämpspost on, on silmapiiril veelgi suuremad turvaprobleemid.

"Mõned rakendused on ohutuse seisukohalt kriitilised, näiteks isejuhtivad autod, " ütleb Oprea. "Kui need mudelid teevad valesid ennustusi, ei saa neid kasutada."

Mida siis teha saab? Meeskond koostas aruande, mida nad kavatsevad igal aastal uuendada, mõnele sihtrühmale - poliitikakujundajatele, AI arendajatele ja teadlastele, kes saavad kasutada aruande taksonoomiat oma töö alusena või kontekstina. Oprea sõnul peavad kõik need rühmad tegema tööd selle nimel, et tehisintellekti mudelid oleksid vastavuses inimlike väärtustega, säilitaksid privaatsuse ja töötaksid kasutajate parimates huvides. Kuid ta tunnistab, et iga raportis tõstatatud probleemi käsitlemine on keeruline ja et keegi, kes otsib pigem lahendusi kui leevendusi, eksib rängalt.

"Rünnakuid on palju rohkem kui leevendusi ja iga me mainitud leevendusega kaasneb kompromiss või toimivus, sealhulgas mudeli täpsuse halvenemine," hoiatab Oprea. "Leevendusmeetmed ei tule tasuta ja tehisintellekti turvamine on tõesti keeruline ettevõtmine, kuid loodame, et aruanne on kasulik lähtepunkt rünnakute mõistmiseks."

Ajatempel:

Veel alates MassTLC