Jak analiza zagrożeń wspomagana przez sztuczną inteligencję rozwiązuje luki w zabezpieczeniach

Jak analiza zagrożeń wspomagana przez sztuczną inteligencję rozwiązuje luki w zabezpieczeniach

Jak analiza zagrożeń wspomagana sztuczną inteligencją rozwiązuje luki w zabezpieczeniach PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

Zespoły zajmujące się operacjami bezpieczeństwa i wywiadem o zagrożeniach cierpią na chroniczny brak personelu, są przytłoczone danymi i radzą sobie z konkurującymi wymaganiami — wszystkie te problemy mogą rozwiązać systemy oparte na modelach wielkojęzycznych (LLM). Jednak brak doświadczenia z systemami powstrzymuje wiele firm przed przyjęciem tej technologii.

Organizacje, które wdrażają LLM, będą w stanie lepiej syntetyzować inteligencję z surowych danych i pogłębić swoje zdolności w zakresie analizy zagrożeń, ale takie programy wymagają wsparcia ze strony kierownictwa ds. bezpieczeństwa, aby były właściwie ukierunkowane. Zespoły powinny wdrażać LLM do rozwiązywania problemów, a zanim to zrobią, muszą ocenić użyteczność LLM w środowisku organizacji, mówi John Miller, szef grupy analiz wywiadowczych Mandiant.

„Naszym celem jest pomoc organizacjom w radzeniu sobie z niepewnością, ponieważ nie ma jeszcze zbyt wielu historii sukcesów ani porażek” — mówi Miller. „Tak naprawdę nie ma jeszcze odpowiedzi opartych na rutynowo dostępnych doświadczeniach, a my chcemy zapewnić ramy do myślenia o tym, jak najlepiej oczekiwać tego typu pytań dotyczących wpływu”.

W prezentacji o godz Czarny kapelusz USA na początku sierpnia pt.Jak wygląda program analizy zagrożeń oparty na LLM?”, Miller i Ron Graf, naukowiec zajmujący się danymi w zespole analityki wywiadowczej w Mandiant's Google Cloud, zademonstrują obszary, w których LLM mogą usprawnić pracowników ochrony, aby przyspieszyć i pogłębić analizę cyberbezpieczeństwa.

Trzy składniki analizy zagrożeń

Miller mówi Dark Reading, że specjaliści ds. Potrzebują danych o istotnych zagrożeniach; zdolność do przetwarzania i standaryzacji tych danych, aby były użyteczne; oraz możliwość interpretacji, w jaki sposób dane te odnoszą się do kwestii bezpieczeństwa.

Łatwiej to powiedzieć niż zrobić, ponieważ zespoły analizy zagrożeń — lub osoby odpowiedzialne za analizę zagrożeń — są często przytłoczone danymi lub żądaniami interesariuszy. Jednak LLM mogą pomóc wypełnić lukę, umożliwiając innym grupom w organizacji żądanie danych za pomocą zapytań w języku naturalnym i uzyskiwanie informacji w języku nietechnicznym, mówi. Często zadawane pytania dotyczą trendów w określonych obszarach zagrożeń, takich jak oprogramowanie ransomware, lub gdy firmy chcą wiedzieć o zagrożeniach na określonych rynkach.

„Liderzy, którym uda się rozszerzyć swoją analizę zagrożeń o możliwości oparte na LLM, mogą w zasadzie zaplanować wyższy zwrot z inwestycji dzięki funkcji analizy zagrożeń” — mówi Miller. „To, czego może oczekiwać lider, myśląc przyszłościowo i co może zrobić jego obecna funkcja wywiadowcza, to stworzyć wyższy potencjał przy tych samych zasobach, aby móc odpowiedzieć na te pytania”.

Sztuczna inteligencja nie może zastąpić ludzkich analityków

Organizacje korzystające z LLM i analizy zagrożeń wspomaganej sztuczną inteligencją będą miały lepszą zdolność do przekształcania i wykorzystywania zestawów danych bezpieczeństwa przedsiębiorstwa, które w przeciwnym razie pozostałyby niewykorzystane. Jednak są pułapki. Poleganie na LLM w celu uzyskania spójnej analizy zagrożeń może zaoszczędzić czas, ale może też na przykład prowadzić do potencjalne „halucynacje” — wada LLM gdzie system stworzy połączenia tam, gdzie ich nie ma lub całkowicie sfabrykuje odpowiedzi, dzięki uczeniu się na błędnych lub brakujących danych.

„Jeśli polegasz na danych wyjściowych modelu, aby podjąć decyzję o bezpieczeństwie swojej firmy, chcesz mieć możliwość potwierdzenia, że ​​ktoś na to spojrzał, z możliwością rozpoznania, czy są jakieś podstawowe błędy, – mówi Miller z Google Cloud. „Musisz być w stanie upewnić się, że masz wykwalifikowanych ekspertów, którzy mogą mówić o przydatności wglądu w odpowiadanie na te pytania lub podejmowanie tych decyzji”.

Takie problemy nie są nie do pokonania, mówi Graf Google Cloud. Organizacje mogłyby połączyć ze sobą konkurencyjne modele, aby zasadniczo przeprowadzać kontrole integralności i zmniejszać odsetek halucynacji. Ponadto zadawanie pytań w zoptymalizowany sposób — tak zwana „szybka inżynieria” — może prowadzić do lepszych odpowiedzi, a przynajmniej takich, które są najbardziej zgodne z rzeczywistością.

Najlepszym sposobem jest jednak sparowanie sztucznej inteligencji z człowiekiem, mówi Graf.

„Uważamy, że najlepszym podejściem jest po prostu włączenie ludzi w pętlę” — mówi. „I tak czy inaczej przyniesie to poprawę wydajności, więc organizacje nadal czerpią z tego korzyści”.

To podejście polegające na rozszerzaniu zyskuje na popularności, ponieważ dołączyły firmy zajmujące się cyberbezpieczeństwem innym firmom w badaniu sposobów przekształcania ich podstawowych możliwości za pomocą dużych LLM. W marcu na przykład Microsoft uruchomił Security Copilot aby pomóc zespołom ds. cyberbezpieczeństwa w badaniu naruszeń i wyszukiwaniu zagrożeń. W kwietniu firma Recorded Future, zajmująca się wywiadem o zagrożeniach, zadebiutowała funkcją ulepszoną przez LLM, stwierdzając, że zdolność systemu do przekształcania ogromnych danych lub głębokiego wyszukiwania w prosty dwu- lub trzyzdaniowy raport podsumowujący dla analityka pozwoliła zaoszczędzić znaczną ilość czasu jego specjaliści od bezpieczeństwa.

„Zasadniczo, jak sądzę, analiza zagrożeń jest problemem „Big Data” i musisz mieć szeroki wgląd we wszystkie poziomy ataku na atakującego, na infrastrukturę i na osoby, które atakują” — mówi Jamie Zajac, wiceprezes ds. produktu w Recorded Future, który twierdzi, że sztuczna inteligencja pozwala ludziom po prostu być bardziej efektywnymi w tym środowisku. „Kiedy masz już wszystkie te dane, masz problem „jak właściwie zsyntetyzować to w coś użytecznego?”. Odkryliśmy, że użycie naszej inteligencji i użycie dużych modeli językowych… zaczęło oszczędzać [naszym analitykom] wiele godzin czas."

Znak czasu:

Więcej z Mroczne czytanie