Hogyan oldja meg a mesterséges intelligencia által kibővített fenyegetés-intelligencia a biztonsági hiányosságokat?

Hogyan oldja meg a mesterséges intelligencia által kibővített fenyegetés-intelligencia a biztonsági hiányosságokat?

How AI-Augmented Threat Intelligence Solves Security Shortfalls PlatoBlockchain Data Intelligence. Vertical Search. Ai.

A biztonsági műveletek és a fenyegetés-felderítő csapatok folyamatosan szűkösek, túlterheltek az adatokkal, és versengő igényekkel foglalkoznak – mindazok a problémák, amelyeket a nagynyelvű modellek (LLM) segíthetnek orvosolni. A rendszerekkel kapcsolatos tapasztalatok hiánya azonban sok vállalatot visszatart a technológia átvételétől.

Az LLM-eket megvalósító szervezetek jobban tudják szintetizálni az intelligenciát nyers adatokból és elmélyítik fenyegetés-felderítő képességeiket, de az ilyen programoknak szüksége van a biztonsági vezetés támogatására a megfelelő összpontosításhoz. A csapatoknak LLM-eket kell megvalósítaniuk a megoldható problémákhoz, és mielőtt ezt megtehetnék, értékelniük kell az LLM-ek hasznosságát a szervezet környezetében – mondja John Miller, a Mandiant intelligenciaelemző csoportjának vezetője.

„Az a célunk, hogy segítsünk a szervezeteknek eligazodni a bizonytalanságban, mert még nincs sok sikertörténet vagy kudarctörténet” – mondja Miller. "Még nem igazán léteznek olyan válaszok, amelyek a rutinszerűen elérhető tapasztalatokon alapulnának, és szeretnénk keretet adni annak a gondolkodásnak, hogyan várjuk a legjobban az ilyen jellegű kérdéseket a hatásról."

Egy előadásban a Black Hat USA augusztus elején, „Hogyan néz ki egy LLM-alapú fenyegetés-felderítő program?Miller és Ron Graf, a Mandiant Google Cloud intelligencia-elemző csapatának adattudósa bemutatja azokat a területeket, ahol az LLM-ek kibővíthetik a biztonsági dolgozókat a kiberbiztonsági elemzés felgyorsítása és elmélyítése érdekében.

A fenyegetés intelligencia három összetevője

Azoknak a biztonsági szakembereknek, akik erős fenyegetésfelderítési képességet akarnak létrehozni szervezetükben, három összetevőre van szükségük a belső fenyegetés-felderítési funkció sikeres létrehozásához, mondja Miller a Dark Readingnek. Adatokra van szükségük a releváns fenyegetésekről; az adatok feldolgozásának és szabványosításának képessége, hogy azok hasznosak legyenek; valamint annak értelmezésének képessége, hogy ezek az adatok hogyan kapcsolódnak a biztonsági szempontokhoz.

Ezt könnyebb mondani, mint megtenni, mert a fenyegetésekkel kapcsolatos felderítő csoportok – vagy a fenyegetésekkel kapcsolatos felderítésért felelős egyének – gyakran túlterheltek az érdekelt felektől érkező adatokkal vagy kérésekkel. Az LLM-ek azonban segíthetnek áthidalni a szakadékot, lehetővé téve a szervezet más csoportjai számára, hogy természetes nyelvű lekérdezésekkel adatokat kérjenek, és az információkat nem szaknyelven kapják meg, mondja. A gyakori kérdések közé tartoznak a fenyegetések bizonyos területeinek trendjei, például a zsarolóvírusok, vagy amikor a vállalatok bizonyos piacokon fenyegetésekről szeretnének tájékozódni.

„Azok a vezetők, akiknek sikerül kibővíteniük fenyegetettségi intelligenciájukat LLM-vezérelt képességekkel, alapvetően magasabb befektetési megtérülést tervezhetnek fenyegetettségi intelligencia funkciójukból” – mondja Miller. "Amire a vezető számíthat, amikor előre gondolkodik, és amire a jelenlegi intelligencia funkciója képes, az az, hogy magasabb képességeket hozzon létre ugyanazzal az erőforrással, hogy meg tudja válaszolni ezeket a kérdéseket."

A mesterséges intelligencia nem helyettesítheti az emberi elemzőket

Azok a szervezetek, amelyek magukévá teszik az LLM-eket és a mesterséges intelligenciával kiegészített fenyegetés-intelligenciát, jobban képesek lesznek átalakítani és felhasználni a vállalati biztonsági adatkészleteket, amelyek egyébként kihasználatlanok lennének. Ennek ellenére vannak buktatói. Ha az LLM-ekre támaszkodva koherens fenyegetéselemzést készítenek, időt takaríthat meg, de például az is előfordulhat lehetséges „hallucinációk” – az LLM-ek hiányossága ahol a rendszer olyan kapcsolatokat hoz létre, ahol nincsenek válaszok, vagy teljesen kitalálja a válaszokat, köszönhetően a hibás vagy hiányzó adatokra való képzésnek.

„Ha egy modell eredményeire támaszkodik a vállalkozása biztonságával kapcsolatos döntés meghozatalakor, akkor meg akarja tudni győződni arról, hogy valaki megnézte, és képes felismerni, ha vannak alapvető hibák, ” – mondja a Google Cloud Miller. „Győződjön meg arról, hogy képzett szakértőkkel rendelkezik, akik beszélni tudnak a betekintés hasznosságáról a kérdések megválaszolásában vagy a döntések meghozatalában.”

Az ilyen problémák nem megoldhatatlanok, mondja a Google Cloud Graf. A szervezetek összeláncolhatnának egymással versengő modelleket, hogy alapvetően ellenőrizzék az integritást és csökkentsék a hallucinációk arányát. Ezen túlmenően, ha optimalizált módon tesz fel kérdéseket – úgynevezett „prompt engineering” – jobb válaszokhoz vezethet, vagy legalábbis olyanokhoz, amelyek a leginkább összhangban vannak a valósággal.

Graf szerint azonban a legjobb módszer egy mesterséges intelligencia emberrel párban tartása.

„Az a véleményünk, hogy a legjobb megközelítés az, ha embereket is bevonunk a körbe” – mondja. "És ez mindenesetre teljesítményjavulást fog eredményezni, így a szervezetek továbbra is élvezik az előnyöket."

Ez a kiegészítési megközelítés egyre nagyobb teret hódít, mint kiberbiztonsági cégek csatlakoztak más vállalatokat, hogy megvizsgálják, hogyan alakíthatják át alapvető képességeiket nagy LLM-ekkel. Márciusban például a Microsoft elindította a Security Copilotot hogy segítsen a kiberbiztonsági csapatoknak kivizsgálni a jogsértéseket és vadászni a fenyegetésekre. Áprilisban pedig a Recorded Future fenyegetésekkel foglalkozó hírszerző cég debütált az LLM által továbbfejlesztett képességgel, és megállapította, hogy a rendszernek az a képessége, hogy a hatalmas adatokat vagy a mélyreható keresést egyszerű, két- vagy hárommondatos összefoglaló jelentéssé tudja alakítani az elemző számára, jelentős időt takarított meg biztonsági szakemberei.

„Alapvetően a fenyegetettség intelligencia szerintem egy „Big Data” probléma, és széles körű rálátást kell biztosítani a támadó, az infrastruktúra és az általuk megcélzott személyek támadásainak minden szintjére” – mondja Jamie Zajac. a Recorded Future termékért felelős alelnöke, aki szerint az AI lehetővé teszi az emberek számára, hogy egyszerűen hatékonyabbak legyenek ebben a környezetben. „Ha mindezzel az adatokkal rendelkezel, akkor az a problémád adódik, hogy „hogyan szintetizálod ebből valami hasznosat?”, és azt találtuk, hogy az intelligenciánkat és a nagy nyelvi modelleket használva… kezdett [elemzőink] órákat megspórolni. idő."

Időbélyeg:

Még több Sötét olvasmány