Kako obveščanje o grožnjah, razširjeno z umetno inteligenco, rešuje varnostne pomanjkljivosti

Kako obveščanje o grožnjah, razširjeno z umetno inteligenco, rešuje varnostne pomanjkljivosti

How AI-Augmented Threat Intelligence Solves Security Shortfalls PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Ekipe za varnostne operacije in obveščanje o grožnjah imajo kronično pomanjkanje osebja, preobremenjene s podatki in se ukvarjajo s konkurenčnimi zahtevami – vse težave, ki jih sistemi z velikim jezikovnim modelom (LLM) lahko pomagajo odpraviti. Toda pomanjkanje izkušenj s sistemi mnoga podjetja zadržuje pri prevzemu tehnologije.

Organizacije, ki izvajajo LLM, bodo lahko bolje sintetizirale inteligenco iz neobdelanih podatkov in poglobijo svoje zmožnosti obveščanja o grožnjah, vendar takšni programi potrebujejo podporo varnostnega vodstva, da so pravilno osredotočeni. Ekipe bi morale implementirati LLM za rešljive probleme in preden lahko to storijo, morajo oceniti uporabnost LLM v okolju organizacije, pravi John Miller, vodja Mandiantove skupine za obveščevalno analizo.

»Naš cilj je pomagati organizacijam pri krmarjenju z negotovostjo, saj še ni veliko ne zgodb o uspehu ne zgodb o neuspehu,« pravi Miller. "V resnici še ni odgovorov, ki bi temeljili na rutinsko dostopnih izkušnjah, in želimo zagotoviti okvir za razmišljanje o tem, kako se najbolje veseliti tovrstnih vprašanj o vplivu."

V predstavitvi na Črni klobuk ZDA v začetku avgusta z naslovom “Kako je videti program obveščanja o grožnjah, ki ga poganja LLM?,« bosta Miller in Ron Graf, podatkovna znanstvenika v ekipi za obveščevalno-analitično analizo v podjetju Mandiant Google Cloud, prikazala področja, na katerih lahko magistri znanja povečajo varnostne delavce, da pospešijo in poglobijo analizo kibernetske varnosti.

Tri sestavine obveščanja o grožnjah

Varnostni strokovnjaki, ki želijo ustvariti močno zmogljivost obveščanja o grožnjah za svojo organizacijo, potrebujejo tri komponente za uspešno ustvarjanje funkcije notranjega obveščanja o grožnjah, pravi Miller za Dark Reading. Potrebujejo podatke o pomembnih grožnjah; zmožnost obdelave in standardizacije teh podatkov, tako da so uporabni; in sposobnost razlage, kako so ti podatki povezani z varnostnimi vprašanji.

To je lažje reči kot narediti, saj so ekipe za obveščanje o grožnjah – ali posamezniki, zadolženi za obveščanje o grožnjah – pogosto preobremenjeni s podatki ali zahtevami zainteresiranih strani. Vendar lahko LLM-ji pomagajo premostiti vrzel, saj drugim skupinam v organizaciji omogočajo, da zahtevajo podatke s poizvedbami v naravnem jeziku in dobijo informacije v nestrokovnem jeziku, pravi. Pogosta vprašanja vključujejo trende na določenih področjih groženj, kot je izsiljevalska programska oprema, ali ko podjetja želijo vedeti o grožnjah na določenih trgih.

»Vodje, ki uspejo povečati svoje obveščanje o grožnjah z zmogljivostmi, ki jih vodi LLM, lahko v bistvu načrtujejo višjo donosnost naložbe iz svoje funkcije obveščanja o grožnjah,« pravi Miller. "Kar lahko pričakuje vodja, ko razmišlja naprej, in kar lahko naredi njihova trenutna obveščevalna funkcija, je ustvariti večjo zmogljivost z enakimi viri, da bi lahko odgovorili na ta vprašanja."

AI ne more nadomestiti človeških analitikov

Organizacije, ki sprejemajo programe LLM in obveščanje o grožnjah, razširjeno z umetno inteligenco, bodo imele izboljšano sposobnost preoblikovanja in uporabe naborov podatkov o varnosti podjetij, ki sicer ne bi bili izkoriščeni. Vendar pa obstajajo pasti. Zanašanje na LLM za izdelavo skladne analize groženj lahko prihrani čas, lahko pa tudi na primer privede do potencialne "halucinacije" - pomanjkljivost LLM kjer bo sistem ustvaril povezave tam, kjer jih ni, ali pa bo v celoti izdelal odgovore, zahvaljujoč usposabljanju na napačnih ali manjkajočih podatkih.

»Če se pri odločanju o varnosti vašega podjetja zanašate na izhod modela, potem želite imeti možnost potrditi, da si ga je nekdo ogledal, s sposobnostjo prepoznati, ali obstajajo temeljne napake, « pravi Miller iz storitve Google Cloud. "Morate se prepričati, da imate strokovnjake, ki so usposobljeni, ki lahko govorijo o uporabnosti vpogleda pri odgovorih na ta vprašanja ali sprejemanju teh odločitev."

Takšna vprašanja niso nepremostljiva, pravi Graf iz Google Clouda. Organizacije bi lahko imele konkurenčne modele povezane skupaj, da bi v bistvu opravile preverjanje integritete in zmanjšale stopnjo halucinacij. Poleg tega lahko zastavljanje vprašanj na optimizirane načine - tako imenovani "hitri inženiring" - vodi do boljših odgovorov ali vsaj takih, ki so najbolj usklajeni z realnostjo.

Najboljši način pa je ohraniti AI v paru s človekom, pravi Graf.

»Naše mnenje je, da je najboljši pristop samo vključitev ljudi v zanko,« pravi. "In to bo tako ali tako prineslo izboljšave zmogljivosti na nižji stopnji, tako da organizacije še vedno žanjejo prednosti."

Ta pristop povečanja pridobiva na moči, kot so se pridružila podjetja za kibernetsko varnost druga podjetja pri raziskovanju načinov za preoblikovanje svojih temeljnih zmogljivosti z velikimi LLM. Marca je na primer Microsoft lansiral varnostni kopilot za pomoč ekipam za kibernetsko varnost pri raziskovanju vdorov in iskanju groženj. In aprila je podjetje za obveščanje o grožnjah Recorded Future predstavilo zmogljivost, izboljšano z LLM, in ugotovilo, da je sposobnost sistema, da pretvori obsežne podatke ali globoko iskanje v preprosto dvo- ali tristavčno poročilo s povzetkom za analitika, prihranilo veliko časa za svoje varnostne strokovnjake.

»V bistvu mislim, da je obveščanje o grožnjah problem 'velikih podatkov' in imeti morate obsežen vpogled v vse ravni napada do napadalca, infrastrukture in ljudi, na katere cilja,« pravi Jamie Zajac, podpredsednik produkta pri Recorded Future, ki pravi, da umetna inteligenca ljudem omogoča, da so preprosto bolj učinkoviti v tem okolju. »Ko imaš vse te podatke, imaš problem, 'kako to dejansko sintetiziraš v nekaj uporabnega?', in ugotovili smo, da je uporaba naše inteligence in uporaba velikih jezikovnih modelov ... začela [našim analitikom] prihraniti ure in ure čas."

Časovni žig:

Več od Temno branje