Comment la Threat Intelligence augmentée par l'IA résout les problèmes de sécurité

Comment la Threat Intelligence augmentée par l'IA résout les problèmes de sécurité

Comment l’intelligence artificielle sur les menaces résout les problèmes de sécurité PlatoBlockchain Data Intelligence. Recherche verticale. Aï.

Les équipes chargées des opérations de sécurité et du renseignement sur les menaces manquent chroniquement de personnel, sont submergées de données et doivent faire face à des demandes concurrentes - autant de problèmes auxquels les systèmes de modèle de langage étendu (LLM) peuvent aider à remédier. Mais un manque d'expérience avec les systèmes empêche de nombreuses entreprises d'adopter la technologie.

Les organisations qui mettent en œuvre des LLM seront en mesure de mieux synthétiser l'intelligence à partir de données brutes et approfondir leurs capacités de renseignement sur les menaces, mais ces programmes ont besoin du soutien de la direction de la sécurité pour être correctement ciblés. Les équipes doivent mettre en œuvre des LLM pour les problèmes résolubles, et avant de pouvoir le faire, elles doivent évaluer l'utilité des LLM dans l'environnement d'une organisation, explique John Miller, responsable du groupe d'analyse du renseignement de Mandiant.

"Ce que nous visons, c'est d'aider les organisations à naviguer dans l'incertitude, car il n'y a pas encore beaucoup d'histoires de réussite ou d'échecs", déclare Miller. "Il n'y a pas encore vraiment de réponses basées sur l'expérience disponible en routine, et nous voulons fournir un cadre pour réfléchir à la meilleure façon d'anticiper ce type de questions sur l'impact."

Dans une présentation à Chapeau noir États-Unis début août, intitulé «À quoi ressemble un programme de renseignement sur les menaces alimenté par LLM ?", Miller et Ron Graf, un scientifique des données de l'équipe d'analyse du renseignement chez Google Cloud de Mandiant, démontreront les domaines dans lesquels les LLM peuvent augmenter les travailleurs de la sécurité pour accélérer et approfondir l'analyse de la cybersécurité.

Trois ingrédients du renseignement sur les menaces

Les professionnels de la sécurité qui souhaitent créer une solide capacité de renseignement sur les menaces pour leur organisation ont besoin de trois composants pour créer avec succès une fonction interne de renseignement sur les menaces, a déclaré Miller à Dark Reading. Ils ont besoin de données sur les menaces pertinentes ; la capacité de traiter et de normaliser ces données afin qu'elles soient utiles ; et la capacité d'interpréter comment ces données sont liées aux problèmes de sécurité.

C'est plus facile à dire qu'à faire, car les équipes de renseignements sur les menaces - ou les personnes en charge des renseignements sur les menaces - sont souvent submergées de données ou de demandes des parties prenantes. Cependant, les LLM peuvent aider à combler le fossé, permettant à d'autres groupes de l'organisation de demander des données avec des requêtes en langage naturel et d'obtenir les informations dans un langage non technique, dit-il. Les questions courantes incluent les tendances dans des domaines spécifiques de menaces, tels que les ransomwares, ou lorsque les entreprises souhaitent connaître les menaces sur des marchés spécifiques.

"Les dirigeants qui réussissent à augmenter leurs renseignements sur les menaces avec des capacités axées sur le LLM peuvent essentiellement planifier un retour sur investissement plus élevé de leur fonction de renseignement sur les menaces", déclare Miller. "Ce à quoi un leader peut s'attendre lorsqu'il réfléchit à l'avenir, et ce que sa fonction de renseignement actuelle peut faire, c'est créer une capacité supérieure avec les mêmes ressources pour pouvoir répondre à ces questions."

L'IA ne peut pas remplacer les analystes humains

Les organisations qui adoptent les LLM et les renseignements sur les menaces augmentés par l'IA auront une meilleure capacité à transformer et à utiliser des ensembles de données de sécurité d'entreprise qui, autrement, resteraient inexploités. Pourtant, il y a des pièges. S'appuyer sur les LLM pour produire une analyse cohérente des menaces peut faire gagner du temps, mais peut aussi, par exemple, conduire à "hallucinations" potentielles - une lacune des LLM où le système créera des connexions là où il n'y en a pas ou fabriquera entièrement des réponses, grâce à une formation sur des données incorrectes ou manquantes.

"Si vous comptez sur la sortie d'un modèle pour prendre une décision concernant la sécurité de votre entreprise, vous voulez être en mesure de confirmer que quelqu'un l'a examiné, avec la capacité de reconnaître s'il y a des erreurs fondamentales, ” dit Miller de Google Cloud. "Vous devez être en mesure de vous assurer que vous avez des experts qualifiés, qui peuvent parler de l'utilité de la perspicacité pour répondre à ces questions ou prendre ces décisions."

De tels problèmes ne sont pas insurmontables, déclare Graf de Google Cloud. Les organisations pourraient avoir des modèles concurrents enchaînés pour effectuer essentiellement des contrôles d'intégrité et réduire le taux d'hallucinations. De plus, poser des questions de manière optimisée - ce que l'on appelle "l'ingénierie rapide" - peut conduire à de meilleures réponses, ou du moins à celles qui sont les plus en phase avec la réalité.

Garder une IA jumelée à un humain, cependant, est la meilleure façon, dit Graf.

« Nous sommes d'avis que la meilleure approche consiste simplement à inclure les humains dans la boucle », dit-il. "Et cela va de toute façon entraîner des améliorations des performances en aval, de sorte que les organisations en récoltent toujours les bénéfices."

Cette approche d'augmentation gagne du terrain, car des entreprises de cybersécurité ont rejoint d'autres entreprises à explorer des moyens de transformer leurs capacités de base avec de grands LLM. En mars, par exemple, Microsoft lancé Security Copilot pour aider les équipes de cybersécurité à enquêter sur les failles et à traquer les menaces. Et en avril, la société de renseignement sur les menaces Recorded Future a lancé une capacité améliorée LLM, constatant que la capacité du système à transformer de vastes données ou une recherche approfondie en un simple rapport de synthèse de deux ou trois phrases pour l'analyste a fait gagner beaucoup de temps pour ses professionnels de la sécurité.

"Fondamentalement, la veille sur les menaces, je pense, est un problème de 'Big Data', et vous devez avoir une visibilité étendue sur tous les niveaux de l'attaque, sur l'attaquant, sur l'infrastructure et sur les personnes qu'il cible", déclare Jamie Zajac, vice-président du produit chez Recorded Future, qui dit que l'IA permet aux humains d'être simplement plus efficaces dans cet environnement. "Une fois que vous avez toutes ces données, vous avez le problème de" comment synthétisez-vous réellement cela en quelque chose d'utile? temps."

Horodatage:

Plus de Lecture sombre