Wyścig o platformy bezpieczeństwa oparte na sztucznej inteligencji nabiera tempa

Wyścig o platformy bezpieczeństwa oparte na sztucznej inteligencji nabiera tempa

Wyścig o platformy bezpieczeństwa oparte na sztucznej inteligencji przyspiesza analizę danych PlatoBlockchain. Wyszukiwanie pionowe. AI.

Kiedy poważna luka wstrząsa światem cyberbezpieczeństwa – na przykład niedawny backdoor XZ lub luka w Log4j2 z 2021 r. – pierwszym pytaniem, które zadaje sobie większość firm, jest: „Czy dotyczy to nas?” W przypadku braku dobrze napisane podręcznikiodpowiedź na proste pytanie może wymagać wiele wysiłku.

Microsoft i Google intensywnie inwestują w systemy generatywnej sztucznej inteligencji (GenAI), które mogą przekształcać duże pytania dotyczące bezpieczeństwa w konkretne działania, wspierać operacje związane z bezpieczeństwem i, w coraz większym stopniu, podejmować zautomatyzowane działania. Microsoft oferuje przepracowane centra operacyjne bezpieczeństwa Drugi pilot bezpieczeństwa, usługa oparta na GenAI, która może identyfikuj naruszenia, łącz sygnały zagrożeń i analizuj dane. I Google'a Bliźnięta w bezpieczeństwie to zbiór funkcji bezpieczeństwa obsługiwanych przez firmowe Gemini GenAI.

Uruchomienie Simbian dołącza do wyścigu dzięki nowej platformie opartej na GenAI, która pomaga firmom radzić sobie z operacjami związanymi z bezpieczeństwem. System Simbian łączy duże modele językowe (LLM) do podsumowywania danych i rozumienia języków rodzimych, inne modele uczenia maszynowego do łączenia różnych punktów danych oraz oparty na oprogramowaniu system ekspercki oparty na informacjach o bezpieczeństwie pobieranych z Internetu.

Tam, gdzie konfiguracja systemu zarządzania informacjami i zdarzeniami dotyczącymi bezpieczeństwa (SIEM) lub systemu orkiestracji, automatyzacji i reagowania na potrzeby bezpieczeństwa (SOAR) może zająć tygodnie lub miesiące, wykorzystanie sztucznej inteligencji skraca czas do – w niektórych przypadkach – sekund, mówi Ambuj Kumar, współautor założyciel i dyrektor generalny Simbian.

„W Simbianie te rzeczy można dosłownie wykonać w ciągu kilku sekund” – mówi. „Zadajesz pytanie, wyrażasz swój cel w języku naturalnym, dzielimy się na wykonanie kodu kroków, a wszystko dzieje się automatycznie. Jest samowystarczalny.”

Pomaganie przepracowanym analitykom bezpieczeństwa i osobom reagującym na incydenty w usprawnianiu ich pracy to idealna aplikacja wykorzystująca potężniejsze możliwości GenAI, mówi Eric Doerr, wiceprezes ds. inżynierii w Google Cloud.

„Szanse w obszarze bezpieczeństwa są szczególnie duże, biorąc pod uwagę krajobraz podwyższonego poziomu zagrożeń, dobrze nagłośnioną lukę w talentach wśród specjalistów ds. cyberbezpieczeństwa oraz pracę, która stanowi status quo w większości zespołów ds. bezpieczeństwa” – mówi Doerr. „Wzrost produktywności i zmniejszenie wydajności oznacza czas potrzebny na wykrycie, zareagowanie i powstrzymanie [lub] łagodzenie zagrożeń poprzez wykorzystanie GenAI umożliwi zespołom ds. bezpieczeństwa skuteczniejsze nadrabianie zaległości i obronę swoich organizacji”.

Różne punkty wyjścia, różne „zalety”

Przewaga Google na rynku jest oczywista. Gigant IT i Internetu ma budżet pozwalający utrzymać kurs, wiedzę techniczną w zakresie uczenia maszynowego i sztucznej inteligencji, którą wykorzystuje w swoich projektach DeepMind w zakresie innowacji, a także dostęp do wielu danych szkoleniowych – co jest kluczowym czynnikiem przy tworzeniu LLM.

„Mamy ogromną ilość zastrzeżonych danych, które wykorzystaliśmy do szkolenia niestandardowego LLM ds. zabezpieczeń — SecLM — będącego częścią Gemini for Security” – mówi Doerr. „Jest to nadzbiór 20-letniego doświadczenia Mandiant Intelligence, VirusTotal i innych. Jesteśmy jedyną platformą z otwartym interfejsem API — częścią Gemini for Security — która pozwala partnerom i klientom korporacyjnym rozszerzać nasze rozwiązania w zakresie bezpieczeństwa i mieć pojedyncza sztuczna inteligencja, która może działać w całym kontekście przedsiębiorstwa.”

Podobnie jak wskazówki Simbiana, Gemini w operacjach bezpieczeństwa — jedna zdolność pod parasolem Gemini in Security — będzie pomagać w dochodzeniach rozpoczynających się pod koniec kwietnia, kierując analitykiem bezpieczeństwa i zalecając działania z poziomu Chronicle Enterprise.

Simbian wykorzystuje zapytania w języku naturalnym do generowania wyników, dlatego zadając pytanie: „Czy dotyczy nas luka XZ?” utworzy tabelę adresów IP aplikacji podatnych na ataki. System wykorzystuje także wyselekcjonowaną wiedzę o bezpieczeństwie zebraną z Internetu do tworzenia przewodników dla analityków bezpieczeństwa, które pokazują im skrypty podpowiedzi, które należy przekazać systemowi w celu wykonania określonego zadania.

„Przewodnik umożliwia personalizację lub tworzenie zaufanych treści” – mówi Kumar z Simbian. „W tej chwili tworzymy przewodniki, ale kiedy… ludzie po prostu zaczną z nich korzystać, będą mogli stworzyć własne”.

Silne roszczenia dotyczące ROI dla LLM

Zwroty z inwestycji będą rosły w miarę przechodzenia firm z procesu ręcznego na proces wspomagany i na działalność autonomiczną. Większość systemów opartych na GenAI osiągnęła dopiero etap asystenta lub drugiego pilota, kiedy to sugeruje działania lub wykonuje jedynie ograniczoną serię działań, po uzyskaniu uprawnień użytkowników.

Prawdziwy zwrot z inwestycji przyjdzie później, mówi Kumar.

„To, co nas ekscytuje, to budowanie autonomiczne — autonomiczne jest podejmowanie w Twoim imieniu decyzji, które mieszczą się w zakresie udzielonych mu wskazówek” – mówi.

Wydaje się, że Google Gemini również przekracza lukę pomiędzy asystentem AI a zautomatyzowanym silnikiem. Firma świadcząca usługi finansowe Fiserv korzysta z Gemini w Security Operations, aby szybciej i przy mniejszym wysiłku tworzyć elementy wykrywające i podręczniki, a także pomagać analitykom bezpieczeństwa w szybkim znajdowaniu odpowiedzi za pomocą wyszukiwania w języku naturalnym, zwiększając w ten sposób produktywność zespołów ds. bezpieczeństwa, mówi Doerr.

Jednak zaufanie nadal stanowi problem i przeszkodę w zwiększaniu automatyzacji, mówi. Aby zwiększyć zaufanie do systemu i rozwiązań, Google w dalszym ciągu koncentruje się na tworzeniu łatwych do wytłumaczenia systemów sztucznej inteligencji, które przejrzyście podają sposób podejmowania decyzji.

„Kiedy do utworzenia nowego wykrywania używasz języka naturalnego, pokażemy Ci składnię języka wykrywania, a Ty zdecydujesz się go uruchomić” – mówi. „Jest to część procesu budowania zaufania i kontekstu dzięki Gemini for Security”.

Znak czasu:

Więcej z Mroczne czytanie