Microsoft toob need turvatööriistad Azure AI jaoks välja

Microsoft toob need turvatööriistad Azure AI jaoks välja

Microsoft toob need turvatööriistad välja Azure AI PlatoBlockchain Data Intelligence'i jaoks. Vertikaalne otsing. Ai.

Microsoft on võtnud kasutusele tööriistakomplekti, mis väidetavalt aitavad muuta tehisintellekti mudeleid Azure'is turvalisemaks.

Alates sellest, kui pilve- ja koodifirma hakkas OpenAI-sse raha kühveldama ja oma tarkvaraimpeeriumi vestlusrobotite võimalustega lisama – draama, mille rivaalid suurejooneliste produktiivsuslubaduste taustal sama innukalt ette kandsid –, on Microsoft pidanud tunnistama, et generatiivne tehisintellekt on seotud riskidega.

. ohud on laialt tuntud ja mõnikord kergelt kõrvale jäetud. Kümmekond aastat tagasi hoiatas Elon Musk, et AI võib lihtsalt hävitada inimkond. Kuid see mure ei takistanud teda tehisintellekti riigis kättesaadavaks tegemast autod, tema peal sotsiaalmeedia megafonja võib-olla varsti sisse robotid.

Suurte hallutsineerivate ja ebaõigeid või kahjulikke vastuseid pakkuvate keelemudelite esilekerkimine on toonud kaasa tagasipöördumise joonestuslauale, kuid edasise rahastamise nõupidamissaali. Selle asemel, et toota ohutut ja eetilist toodet, püüab tehnoloogiatööstus metsikuid mudeleid taltsutada või vähemalt hoida neid piisavalt kaugel klientidest, kes võivad kellelegi haiget tegemata joosta.

Ja kui see ei tööta, on alati hüvitamine tarnijate juriidilistest nõuetest teatud tingimustel.

Tööstuse kohustused tehisintellekti ohutuse osas langevad kokku vastavate valitsuse nõudmistega. USA-s korraldas Valge Maja juhtimis- ja eelarvebüroo (OMB) neljapäeval emiteeritud esimene valitsust hõlmav poliitika AI riskide käsitlemiseks.

Poliitika nõuab, et föderaalasutused rakendaksid 1. detsembriks konkreetseid kaitsemeetmeid tehisintellekti kasutamisel viisil, mis võib mõjutada ameeriklaste õigusi või turvalisust. See tähendab riskianalüüse, testimist ja jälgimist, jõupingutusi diskrimineerimise ja erapoolikuste piiramiseks ning läbipaistvus AI rakenduste jaoks, mis puudutavad tervist, haridust, eluaset ja tööhõivet.

Nii tutvustab Microsoft oma uusimatest tehisintellekti ohutusmeetmetest vastutustundliku tehisintellekti tootejuhi Sarah Birdi kaudu. See tiitel viitab vastutustundetu tehisintellekti olemasolule – kui te seda ette kujutate.

Bird ütleb, et ettevõtete juhid püüavad tasakaalustada innovatsiooni ja riskijuhtimist, et võimaldada neil kasutada generatiivset AI-d, ilma et see neid näksiks.

"Kiire süstimise rünnakud on kujunenud oluliseks väljakutseks, kus pahatahtlikud osalejad üritavad manipuleerida tehisintellekti süsteemiga, et see teeks midagi väljaspool selle ettenähtud eesmärki, nagu näiteks kahjuliku sisu tootmine või konfidentsiaalsete andmete väljafiltreerimine," selgitab Bird blogi postitus.

“Lisaks nende turvariskide maandamisele tunnevad organisatsioonid muret ka kvaliteedi ja töökindluse pärast. Nad tahavad tagada, et nende AI-süsteemid ei tekitaks vigu ega lisaks teavet, mis pole rakenduse andmeallikates põhjendatud, mis võib kahjustada kasutajate usaldust.

Kuna ohutus ja täpsus ei sisaldu tehisintellekti liitumistasus, näeb Microsoft võimalust neid müüa lisana.

Kliendid, kes kasutavad Azure AI Studiot generatiivsete AI-rakenduste loomisel, võivad oodata nelja uut tööriista.

Esiteks on olemas Prompt Shields, mis lubavad aidata kaitsta kiirete süstimisrünnakute eest. Varem tuntud kui Jailbreak Risk Detection ja nüüd avalikus eelvaates, on see viis nii otsese kui ka kaudse kiire sekkumise riski vähendamiseks sihtasutuse mudelitesse.

Otsesed rünnakud hõlmavad viipasid (sisendeid), mille eesmärk on panna mudel oma ohutuskoolitust ignoreerima. Kaudsed rünnakud viitavad katsetele sisestada mudelisse. Üks võimalus seda teha võib olla peidetud teksti lisamine e-kirja teadmisega, et adressaadi nimel tegutsev tehisintellekti mudel, näiteks Outlooki Copiloti kaudu, sõelub sõnumi, tõlgendab peidetud teksti käsuna ja loodetavasti toimige vastavalt juhistele, tehes näiteks vaikselt tundlike andmetega vastamist.

Teiseks on Maaduse tuvastamine, süsteem, mis võimaldab teha kindlaks, kui AI-mudelid hallutsineerivad või mõtlevad välja asju. See pakub klientidele mitu võimalust, kui tuvastatakse vale väide, sealhulgas vastuse tagasi saatmine, et seda enne kuvamist üle vaadata. Microsofti sõnul on ta selle saavutanud kohandatud keelemudeli loomisega, mis hindab alusdokumentide põhjal põhjendamatuid väiteid. Nii et vastus tehisintellekti mudeli ohutusele on, arvasite ära, teine ​​mudel.

Kuigi see on suurepärane samm usaldusväärse tehisintellekti suunas, on probleem endiselt lahendamata

Kolmandaks, meil on Tehisintellektiga toetatud ohutushinnangud AI Studios, mis pakuvad testimisraamistikku viipade mallide ja parameetrite esitamiseks mudelile, mis testib erinevaid võistlevaid koostoimeid kliendi rakendusega. Jällegi on AI testimiseks tehisintellekt.

Ja lõpuks, seal on "riskide ja ohutuse jälgimine", Azure OpenAI teenuse funktsioon, mis pakub kahjuliku sisu mõõdikuid.

Vinu Sankar Sadasivan, Marylandi ülikooli doktorant, kes aitas välja töötada BEAST rünnak LLM-ide kohta, öeldi Register et kuigi on põnev näha Azure'i ehitustööriistu, mis muudavad tehisintellekti turvalisemaks, laiendab mudelite lisamine segu potentsiaalset rünnakupinda.

"Azure'i ohutushinnangud ning riski- ja ohutusjärelevalve tööriistad on AI-mudelite töökindluse uurimiseks olulised," ütles ta. "Kuigi see on suurepärane samm usaldusväärse tehisintellekti suunas, on probleem endiselt lahendamata. Näiteks nende poolt kasutusele võetud Prompt Shields kasutavad kaudsete viiperünnakute tuvastamiseks ja blokeerimiseks arvatavasti teist tehisintellekti mudelit. See AI-mudel võib olla haavatav selliste ohtude suhtes nagu võistlevad rünnakud.

"Vastased võivad neid haavatavusi kasutada, et Prompt Shieldidest mööda minna. Kuigi turvasüsteemide sõnumid on mõnel juhul osutunud tõhusaks, võivad olemasolevad rünnakud, nagu BEAST, rünnata tehisintellekti mudeleid, et need kiiresti vangistada. Kuigi tehisintellektisüsteemide kaitsemehhanismide rakendamine on kasulik, on oluline jääda teadlikuks nende võimalikest puudustest. ®

Ajatempel:

Veel alates Register