La corsa per le piattaforme di sicurezza basate sull’intelligenza artificiale si infiamma

La corsa per le piattaforme di sicurezza basate sull’intelligenza artificiale si infiamma

La corsa per le piattaforme di sicurezza basate sull'intelligenza artificiale riscalda la data intelligence di PlatoBlockchain. Ricerca verticale. Ai.

Quando una grave vulnerabilità scuote il mondo della sicurezza informatica, come la recente backdoor XZ o le falle Log4j2 del 2021, la prima domanda che la maggior parte delle aziende si pone è: “Siamo colpiti?” In assenza di playbook ben scritti, la risposta a una domanda semplice può richiedere un grande sforzo.

Microsoft e Google stanno investendo molto in sistemi di intelligenza artificiale generativa (GenAI) che possono trasformare grandi domande di sicurezza in azioni concrete, assistere le operazioni di sicurezza e, sempre più spesso, intraprendere azioni automatizzate. Microsoft offre centri operativi di sicurezza oberati di lavoro con Copilota di sicurezza, un servizio basato su GenAI che può identificare le violazioni, collegare i segnali di minaccia e analizzare i dati. E quello di Google Gemelli in Sicurezza è una raccolta di funzionalità di sicurezza alimentate da Gemini GenAI dell'azienda.

Startup Simbian si unisce alla gara con la sua nuova piattaforma basata su GenAI per aiutare le aziende ad affrontare le loro operazioni di sicurezza. Il sistema di Simbian combina modelli linguistici di grandi dimensioni (LLM) per riassumere i dati e comprendere le lingue native, altri modelli di apprendimento automatico per connettere punti dati disparati e un sistema esperto basato su software basato su informazioni di sicurezza raccolte da Internet.

Laddove la configurazione di un sistema di gestione delle informazioni e degli eventi di sicurezza (SIEM) o di un sistema di orchestrazione, automazione e risposta della sicurezza (SOAR) potrebbe richiedere settimane o mesi, l’utilizzo dell’intelligenza artificiale riduce i tempi, in alcuni casi, a secondi, afferma Ambuj Kumar, co- fondatore e amministratore delegato di Simbian.

"Con Simbian, queste cose vengono fatte letteralmente in pochi secondi", afferma. “Fai una domanda, esprimi il tuo obiettivo in linguaggio naturale, noi suddividiamo in passaggi l'esecuzione del codice e tutto questo avviene automaticamente. È autosufficiente."

Aiutare gli analisti della sicurezza e gli addetti alla risposta agli incidenti, oberati di lavoro, a semplificare il loro lavoro è un'applicazione perfetta per le funzionalità più potenti di GenAI, afferma Eric Doerr, vicepresidente della progettazione presso Google Cloud.

“Le opportunità nel campo della sicurezza sono particolarmente acute considerato l’elevato panorama delle minacce, il divario di talenti ben pubblicizzato tra i professionisti della sicurezza informatica e la fatica che rappresenta lo status quo nella maggior parte dei team di sicurezza”, afferma Doerr. “Accelerare la produttività e ridurre i tempi medi necessari per rilevare, rispondere e contenere [o] mitigare le minacce attraverso l’uso di GenAI consentirà ai team di sicurezza di recuperare e difendere le proprie organizzazioni con maggiore successo”.

Diversi punti di partenza, diversi “vantaggi”

I vantaggi di Google sul mercato sono evidenti. Il gigante dell’IT e di Internet ha il budget per mantenere la rotta, le competenze tecniche nell’apprendimento automatico e nell’intelligenza artificiale derivanti dai suoi progetti DeepMind per innovare e l’accesso a molti dati di formazione: una considerazione fondamentale per la creazione di LLM.

"Disponiamo di un'enorme quantità di dati proprietari che abbiamo utilizzato per addestrare un LLM di sicurezza personalizzato, SecLM, che fa parte di Gemini for Security", afferma Doerr. "Questo è il superset di 20 anni di intelligenza Mandiant, VirusTotal e altro ancora, e siamo l'unica piattaforma che dispone di un'API aperta - parte di Gemini for Security - che consente ai partner e ai clienti aziendali di estendere le nostre soluzioni di sicurezza e avere un un’unica intelligenza artificiale in grado di operare con tutto il contesto dell’impresa”.

Come la guida di Simbian, Gemini nelle operazioni di sicurezza: una capacità sotto l'egida di Gemini in Security — assisterà nelle indagini a partire dalla fine di aprile, guidando l'analista della sicurezza e consigliando azioni dall'interno di Chronicle Enterprise.

Simbian utilizza query in linguaggio naturale per generare risultati, quindi chiedendo: "Siamo interessati dalla vulnerabilità XZ?" produrrà una tabella di indirizzi IP delle applicazioni vulnerabili. Il sistema utilizza inoltre conoscenze selezionate sulla sicurezza raccolte da Internet per creare guide per gli analisti della sicurezza che mostrano loro uno script di istruzioni da fornire al sistema per eseguire un'attività specifica.

"La guida è un modo per personalizzare o creare contenuti affidabili", afferma Kumar di Simbian. "In questo momento stiamo creando le guide, ma una volta... le persone inizieranno a usarle, allora potranno crearne di proprie."

Forti richieste di ROI per i LLM

I ritorni sugli investimenti aumenteranno man mano che le aziende passeranno da un processo manuale a un processo assistito verso un’attività autonoma. La maggior parte dei sistemi basati su GenAI sono avanzati solo fino allo stadio di assistente o copilota, quando suggerisce azioni o esegue solo una serie limitata di azioni, dopo aver ottenuto le autorizzazioni degli utenti.

Il vero ritorno sull’investimento arriverà più tardi, afferma Kumar.

"Ciò che siamo entusiasti di costruire è autonomo: autonomo significa prendere decisioni per tuo conto che rientrano nell'ambito della guida che gli hai fornito", afferma.

Gemini di Google sembra anche colmare il divario tra un assistente AI e un motore automatizzato. La società di servizi finanziari Fiserv utilizza Gemini nelle operazioni di sicurezza per creare rilevamenti e playbook più velocemente e con meno sforzo e per aiutare gli analisti della sicurezza a trovare rapidamente risposte utilizzando la ricerca in linguaggio naturale, aumentando la produttività dei team di sicurezza, afferma Doerr.

Tuttavia, afferma, la fiducia è ancora un problema e un ostacolo per una maggiore automazione. Per rafforzare la fiducia nel sistema e nelle soluzioni, Google rimane concentrato sulla creazione di sistemi di intelligenza artificiale spiegabili che siano trasparenti nel modo in cui giungono a una decisione.

"Quando utilizzi un input in linguaggio naturale per creare un nuovo rilevamento, ti mostriamo la sintassi del linguaggio di rilevamento e tu scegli di eseguirlo", afferma. “Questo fa parte del processo di creazione di fiducia e contesto con Gemini for Security”.

Timestamp:

Di più da Lettura oscura