In che modo l'intelligence sulle minacce potenziata dall'intelligenza artificiale risolve le carenze di sicurezza

In che modo l'intelligence sulle minacce potenziata dall'intelligenza artificiale risolve le carenze di sicurezza

In che modo l'intelligence sulle minacce potenziata dall'intelligenza artificiale risolve le carenze nella sicurezza PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

I team delle operazioni di sicurezza e dell'intelligence sulle minacce sono cronicamente a corto di personale, sopraffatti dai dati e si occupano di richieste concorrenti: tutti problemi che i sistemi LLM (large-language model) possono aiutare a risolvere. Ma la mancanza di esperienza con i sistemi sta trattenendo molte aziende dall'adottare la tecnologia.

Le organizzazioni che implementano gli LLM saranno in grado di sintetizzare meglio l'intelligence dai dati grezzi e approfondire le proprie capacità di intelligence sulle minacce, ma tali programmi hanno bisogno del supporto della leadership della sicurezza per essere focalizzati correttamente. I team dovrebbero implementare gli LLM per problemi risolvibili e, prima di poterlo fare, devono valutare l'utilità degli LLM nell'ambiente di un'organizzazione, afferma John Miller, capo del gruppo di analisi dell'intelligence di Mandiant.

"Il nostro obiettivo è aiutare le organizzazioni a superare l'incertezza, perché non ci sono ancora molte storie di successo o di fallimento", afferma Miller. "Non ci sono ancora risposte realmente basate sull'esperienza disponibile di routine e vogliamo fornire un quadro per pensare a come guardare al meglio a questo tipo di domande sull'impatto".

In una presentazione a Cappello nero USA ai primi di agosto, intitolato “Che aspetto ha un programma di Threat Intelligence basato su LLM?,” Miller e Ron Graf, un data scientist del team di intelligence-analytics presso Google Cloud di Mandiant, dimostreranno le aree in cui gli LLM possono potenziare i lavoratori della sicurezza per accelerare e approfondire l'analisi della sicurezza informatica.

Tre ingredienti dell'intelligence sulle minacce

I professionisti della sicurezza che desiderano creare una solida capacità di intelligence sulle minacce per la propria organizzazione hanno bisogno di tre componenti per creare con successo una funzione interna di intelligence sulle minacce, dice Miller a Dark Reading. Hanno bisogno di dati sulle minacce rilevanti; la capacità di elaborare e standardizzare quei dati in modo che siano utili; e la capacità di interpretare in che modo tali dati si riferiscono a problemi di sicurezza.

È più facile a dirsi che a farsi, perché i team di intelligence sulle minacce, o gli individui responsabili dell'intelligence sulle minacce, sono spesso sopraffatti dai dati o dalle richieste delle parti interessate. Tuttavia, gli LLM possono aiutare a colmare il divario, consentendo ad altri gruppi dell'organizzazione di richiedere dati con query in linguaggio naturale e ottenere le informazioni in un linguaggio non tecnico, afferma. Le domande comuni includono le tendenze in aree specifiche di minacce, come il ransomware, o quando le aziende desiderano conoscere le minacce in mercati specifici.

"I leader che riescono ad aumentare la loro intelligence sulle minacce con capacità guidate da LLM possono sostanzialmente pianificare un ritorno sull'investimento più elevato dalla loro funzione di intelligence sulle minacce", afferma Miller. "Ciò che un leader può aspettarsi mentre pensa al futuro, e ciò che la sua attuale funzione di intelligence può fare, è creare capacità più elevate con le stesse risorse per essere in grado di rispondere a queste domande".

L'intelligenza artificiale non può sostituire gli analisti umani

Le organizzazioni che adottano LLM e informazioni sulle minacce potenziate dall'intelligenza artificiale avranno una migliore capacità di trasformare e utilizzare set di dati di sicurezza aziendale che altrimenti rimarrebbero inutilizzati. Tuttavia, ci sono delle insidie. Affidarsi a LLM per produrre un'analisi coerente delle minacce può far risparmiare tempo, ma può anche portare, ad esempio, a potenziali "allucinazioni" - un difetto di LLM dove il sistema creerà connessioni dove non ce ne sono o fabbricherà interamente risposte, grazie all'addestramento su dati errati o mancanti.

"Se ti affidi all'output di un modello per prendere una decisione sulla sicurezza della tua attività, allora vuoi essere in grado di confermare che qualcuno lo ha esaminato, con la capacità di riconoscere se ci sono errori fondamentali, " afferma Miller di Google Cloud. "Devi essere in grado di assicurarti di avere esperti qualificati, che possano parlare dell'utilità dell'intuizione nel rispondere a quelle domande o prendere quelle decisioni."

Tali problemi non sono insormontabili, afferma Graf di Google Cloud. Le organizzazioni potrebbero avere modelli concorrenti incatenati insieme per eseguire essenzialmente controlli di integrità e ridurre il tasso di allucinazioni. Inoltre, porre domande in modo ottimizzato, il cosiddetto "prompt engineering", può portare a risposte migliori, o almeno a quelle più in sintonia con la realtà.

Mantenere un'intelligenza artificiale accoppiata con un essere umano, tuttavia, è il modo migliore, afferma Graf.

"È nostra opinione che l'approccio migliore sia solo quello di includere gli esseri umani nel giro", afferma. "E questo produrrà comunque miglioramenti delle prestazioni a valle, quindi le organizzazioni stanno ancora raccogliendo i frutti".

Questo approccio di aumento sta guadagnando terreno, come le società di sicurezza informatica hanno aderito altre aziende nell'esplorare modi per trasformare le loro capacità principali con grandi LLM. A marzo, ad esempio, Microsoft lanciato Security Copilot per aiutare i team di sicurezza informatica a indagare sulle violazioni e individuare le minacce. E ad aprile, la società di intelligence sulle minacce Recorded Future ha presentato una funzionalità potenziata LLM, scoprendo che la capacità del sistema di trasformare dati vasti o ricerche approfondite in un semplice rapporto di riepilogo di due o tre frasi per l'analista ha risparmiato una notevole quantità di tempo per suoi professionisti della sicurezza.

"Fondamentalmente, penso che l'intelligence sulle minacce sia un problema di 'Big Data', ed è necessario disporre di un'ampia visibilità su tutti i livelli dell'attacco, sull'aggressore, sull'infrastruttura e sulle persone prese di mira", afferma Jamie Zajac, vicepresidente del prodotto di Recorded Future, che afferma che l'intelligenza artificiale consente agli esseri umani di essere semplicemente più efficaci in quell'ambiente. "Una volta che hai tutti questi dati, hai il problema di 'come li sintetizzi effettivamente in qualcosa di utile?', e abbiamo scoperto che usando la nostra intelligenza e usando grandi modelli linguistici... ha iniziato a far risparmiare [ai nostri analisti] ore e ore di tempo."

Timestamp:

Di più da Lettura oscura