Cómo la inteligencia de amenazas aumentada por IA resuelve las deficiencias de seguridad

Cómo la inteligencia de amenazas aumentada por IA resuelve las deficiencias de seguridad

Cómo la inteligencia sobre amenazas aumentada por IA resuelve las deficiencias de seguridad PlatoBlockchain Data Intelligence. Búsqueda vertical. Ai.

Los equipos de operaciones de seguridad e inteligencia de amenazas tienen una escasez crónica de personal, están abrumados con datos y se enfrentan a demandas competitivas, todos los problemas que los sistemas de modelo de lenguaje grande (LLM) pueden ayudar a remediar. Pero la falta de experiencia con los sistemas impide que muchas empresas adopten la tecnología.

Las organizaciones que implementen LLM podrán sintetizar mejor la inteligencia a partir de datos sin procesar y profundizar sus capacidades de inteligencia de amenazas, pero dichos programas necesitan el apoyo de los líderes de seguridad para enfocarse correctamente. Los equipos deben implementar LLM para problemas solucionables y, antes de que puedan hacerlo, deben evaluar la utilidad de los LLM en el entorno de una organización, dice John Miller, director del grupo de análisis de inteligencia de Mandiant.

“Nuestro objetivo es ayudar a las organizaciones a navegar la incertidumbre, porque todavía no hay muchas historias de éxito o fracaso”, dice Miller. "Todavía no hay respuestas que se basen en la experiencia disponible de forma rutinaria, y queremos proporcionar un marco para pensar sobre cómo anticipar mejor ese tipo de preguntas sobre el impacto".

En una presentación en Sombrero negro, estados unidos a principios de agosto, titulado “¿Qué aspecto tiene un programa de inteligencia de amenazas impulsado por LLM?”, Miller y Ron Graf, científico de datos del equipo de análisis de inteligencia en Google Cloud de Mandiant, demostrarán las áreas en las que los LLM pueden ayudar a los trabajadores de seguridad a acelerar y profundizar el análisis de ciberseguridad.

Tres ingredientes de la inteligencia de amenazas

Los profesionales de la seguridad que desean crear una sólida capacidad de inteligencia de amenazas para su organización necesitan tres componentes para crear con éxito una función interna de inteligencia de amenazas, dice Miller a Dark Reading. Necesitan datos sobre las amenazas que sean relevantes; la capacidad de procesar y estandarizar esos datos para que sean útiles; y la capacidad de interpretar cómo esos datos se relacionan con las preocupaciones de seguridad.

Es más fácil decirlo que hacerlo, porque los equipos de inteligencia de amenazas, o las personas a cargo de la inteligencia de amenazas, a menudo se ven abrumados con datos o solicitudes de las partes interesadas. Sin embargo, los LLM pueden ayudar a cerrar la brecha, permitiendo que otros grupos en la organización soliciten datos con consultas en lenguaje natural y obtengan la información en un lenguaje no técnico, dice. Las preguntas comunes incluyen tendencias en áreas específicas de amenazas, como ransomware, o cuándo las empresas quieren saber sobre amenazas en mercados específicos.

“Los líderes que logran aumentar su inteligencia de amenazas con capacidades impulsadas por LLM básicamente pueden planificar un mayor retorno de la inversión de su función de inteligencia de amenazas”, dice Miller. “Lo que un líder puede esperar mientras piensa en el futuro, y lo que su función de inteligencia actual puede hacer, es crear una mayor capacidad con los mismos recursos para poder responder esas preguntas”.

La IA no puede reemplazar a los analistas humanos

Las organizaciones que adopten LLM e inteligencia de amenazas aumentada por IA tendrán una capacidad mejorada para transformar y hacer uso de conjuntos de datos de seguridad empresarial que de otro modo no se aprovecharían. Sin embargo, hay trampas. Confiar en LLM para producir un análisis de amenazas coherente puede ahorrar tiempo, pero también puede, por ejemplo, conducir a “alucinaciones” potenciales: una deficiencia de los LLM donde el sistema creará conexiones donde no las hay o fabricará respuestas por completo, gracias a haber sido entrenado en datos incorrectos o faltantes.

“Si confía en el resultado de un modelo para tomar una decisión sobre la seguridad de su negocio, entonces querrá poder confirmar que alguien lo ha revisado, con la capacidad de reconocer si hay errores fundamentales, ”, Dice Miller de Google Cloud. “Debe poder asegurarse de tener expertos calificados, que puedan hablar sobre la utilidad de la información para responder esas preguntas o tomar esas decisiones”.

Tales problemas no son insuperables, dice Graf de Google Cloud. Las organizaciones podrían tener modelos de la competencia encadenados para realizar esencialmente controles de integridad y reducir la tasa de alucinaciones. Además, hacer preguntas de manera optimizada, lo que se conoce como "ingeniería rápida", puede conducir a mejores respuestas, o al menos a las que están más en sintonía con la realidad.

Sin embargo, mantener una IA emparejada con un humano es la mejor manera, dice Graf.

“Nuestra opinión es que el mejor enfoque es simplemente incluir a los humanos en el circuito”, dice. “Y eso generará mejoras en el rendimiento aguas abajo de todos modos, por lo que las organizaciones aún están cosechando los beneficios”.

Este enfoque de aumento ha ido ganando terreno, ya que firmas de ciberseguridad se han sumado otras empresas en la exploración de formas de transformar sus capacidades básicas con grandes LLM. En marzo, por ejemplo, Microsoft lanzó Security Copilot para ayudar a los equipos de ciberseguridad a investigar infracciones y buscar amenazas. Y en abril, la empresa de inteligencia de amenazas Recorded Future debutó con una capacidad mejorada de LLM y descubrió que la capacidad del sistema para convertir una gran cantidad de datos o búsquedas profundas en un informe resumido simple de dos o tres oraciones para el analista ha ahorrado una cantidad significativa de tiempo para sus profesionales de la seguridad.

“Fundamentalmente, la inteligencia de amenazas, creo, es un problema de 'Big Data', y es necesario tener una amplia visibilidad de todos los niveles del ataque, del atacante, de la infraestructura y de las personas a las que se dirige”, dice Jamie Zajac, vicepresidente de producto de Recorded Future, quien dice que la IA permite que los humanos sean simplemente más efectivos en ese entorno. “Una vez que tienes todos estos datos, tienes el problema de '¿cómo sintetizas esto en algo útil?', y descubrimos que usar nuestra inteligencia y usar modelos de lenguaje grandes... comenzamos a ahorrar [a nuestros analistas] horas y horas de tiempo."

Sello de tiempo:

Mas de Lectura oscura