Bagaimana AI-Augmented Threat Intelligence Mengatasi Kekurangan Keamanan

Bagaimana AI-Augmented Threat Intelligence Mengatasi Kekurangan Keamanan

Bagaimana AI-Augmented Threat Intelligence Mengatasi Kekurangan Keamanan PlatoBlockchain Data Intelligence. Pencarian Vertikal. Ai.

Tim keamanan-operasi dan ancaman-intelijen secara kronis kekurangan staf, kewalahan dengan data, dan berurusan dengan permintaan yang bersaing — semua masalah yang dapat dibantu oleh sistem model bahasa besar (LLM). Tetapi kurangnya pengalaman dengan sistem tersebut menghambat banyak perusahaan untuk mengadopsi teknologi tersebut.

Organisasi yang menerapkan LLM akan dapat mensintesis kecerdasan dengan lebih baik dari data mentah dan memperdalam kemampuan ancaman-intelijen mereka, tetapi program semacam itu membutuhkan dukungan dari pimpinan keamanan agar dapat difokuskan dengan benar. Tim harus menerapkan LLM untuk masalah yang dapat dipecahkan, dan sebelum mereka dapat melakukannya, mereka perlu mengevaluasi kegunaan LLM dalam lingkungan organisasi, kata John Miller, kepala kelompok analisis kecerdasan Mandiant.

“Tujuan kami adalah membantu organisasi mengatasi ketidakpastian, karena belum ada banyak kisah sukses atau kisah kegagalan,” kata Miller. “Belum ada jawaban yang benar-benar berdasarkan pengalaman yang tersedia secara rutin, dan kami ingin memberikan kerangka kerja untuk berpikir tentang cara terbaik untuk mengantisipasi jenis pertanyaan tentang dampak tersebut.”

Dalam presentasi di Topi Hitam Amerika Serikat pada awal Agustus berjudul “Seperti Apa Program Intelijen Ancaman Bertenaga LLM?, ” Miller dan Ron Graf, seorang ilmuwan data di tim analitik intelijen di Google Cloud Mandiant, akan mendemonstrasikan area di mana LLM dapat menambah pekerja keamanan untuk mempercepat dan memperdalam analisis keamanan siber.

Tiga Bahan Kecerdasan Ancaman

Profesional keamanan yang ingin membuat kemampuan intelijen ancaman yang kuat untuk organisasi mereka memerlukan tiga komponen agar berhasil membuat fungsi intelijen ancaman internal, Miller memberi tahu Dark Reading. Mereka membutuhkan data tentang ancaman yang relevan; kemampuan untuk memproses dan menstandarkan data tersebut sehingga berguna; dan kemampuan untuk menginterpretasikan bagaimana data tersebut berkaitan dengan masalah keamanan.

Itu lebih mudah diucapkan daripada dilakukan, karena tim intelijen ancaman — atau individu yang bertanggung jawab atas intelijen ancaman — sering kewalahan dengan data atau permintaan dari pemangku kepentingan. Namun, LLM dapat membantu menjembatani kesenjangan tersebut, memungkinkan kelompok lain dalam organisasi untuk meminta data dengan pertanyaan bahasa alami dan mendapatkan informasi dalam bahasa non-teknis, katanya. Pertanyaan umum mencakup tren di area ancaman tertentu, seperti ransomware, atau saat perusahaan ingin mengetahui tentang ancaman di pasar tertentu.

“Pemimpin yang berhasil menambah kecerdasan ancaman mereka dengan kemampuan yang digerakkan oleh LLM pada dasarnya dapat merencanakan pengembalian investasi yang lebih tinggi dari fungsi kecerdasan ancaman mereka,” kata Miller. “Apa yang dapat diharapkan oleh seorang pemimpin saat mereka berpikir ke depan, dan apa yang dapat dilakukan oleh fungsi intelijen mereka saat ini, adalah menciptakan kemampuan yang lebih tinggi dengan sumber daya yang sama untuk dapat menjawab pertanyaan tersebut.”

AI Tidak Dapat Menggantikan Analis Manusia

Organisasi yang menggunakan LLM dan intelijen ancaman yang diperkuat AI akan memiliki kemampuan yang lebih baik untuk mengubah dan memanfaatkan kumpulan data keamanan perusahaan yang jika tidak akan dimanfaatkan. Namun, ada jebakan. Mengandalkan LLM untuk menghasilkan analisis ancaman yang koheren dapat menghemat waktu, tetapi juga dapat menyebabkan potensi "halusinasi" - kekurangan LLM di mana sistem akan membuat koneksi di mana tidak ada atau membuat jawaban seluruhnya, berkat pelatihan tentang data yang salah atau hilang.

“Jika Anda mengandalkan output model untuk membuat keputusan tentang keamanan bisnis Anda, maka Anda ingin memastikan bahwa seseorang telah melihatnya, dengan kemampuan mengenali jika ada kesalahan mendasar, ” kata Miller dari Google Cloud. “Anda harus dapat memastikan bahwa Anda memiliki pakar yang memenuhi syarat, yang dapat berbicara untuk memanfaatkan wawasan dalam menjawab pertanyaan tersebut atau membuat keputusan tersebut.”

Masalah seperti itu tidak dapat diatasi, kata Graf Google Cloud. Organisasi dapat memiliki model yang bersaing yang dirangkai bersama untuk melakukan pemeriksaan integritas dan mengurangi tingkat halusinasi. Selain itu, mengajukan pertanyaan dengan cara yang optimal — yang disebut “rekayasa cepat” — dapat menghasilkan jawaban yang lebih baik, atau setidaknya jawaban yang paling selaras dengan kenyataan.

Tetap memasangkan AI dengan manusia, bagaimanapun, adalah cara terbaik, kata Graf.

“Menurut pendapat kami, pendekatan terbaik adalah memasukkan manusia ke dalam lingkaran,” katanya. “Dan itu akan menghasilkan peningkatan kinerja hilir, jadi organisasi masih menuai keuntungan.”

Pendekatan augmentasi ini telah mendapatkan daya tarik, seperti perusahaan keamanan siber telah bergabung perusahaan lain dalam mengeksplorasi cara untuk mengubah kemampuan inti mereka dengan LLM besar. Pada bulan Maret, misalnya, Microsoft meluncurkan Kopilot Keamanan untuk membantu tim keamanan siber menyelidiki pelanggaran dan memburu ancaman. Dan pada bulan April, firma intelijen ancaman Recorded Future meluncurkan kemampuan yang ditingkatkan LLM, menemukan bahwa kemampuan sistem untuk mengubah data besar atau pencarian mendalam menjadi laporan ringkasan dua atau tiga kalimat sederhana untuk analis telah menghemat banyak waktu untuk profesional keamanannya.

“Pada dasarnya, intelijen ancaman, menurut saya, adalah masalah 'Big Data', dan Anda perlu memiliki visibilitas yang luas ke semua tingkat serangan ke penyerang, ke infrastruktur, dan ke orang yang mereka targetkan,” kata Jamie Zajac, wakil presiden produk di Recorded Future, yang mengatakan bahwa AI memungkinkan manusia menjadi lebih efektif di lingkungan tersebut. “Setelah Anda memiliki semua data ini, Anda memiliki masalah 'bagaimana Anda benar-benar mensintesis ini menjadi sesuatu yang berguna?', dan kami menemukan bahwa menggunakan kecerdasan kami dan menggunakan model bahasa yang besar ... mulai menghemat waktu [analis kami] berjam-jam. waktu."

Stempel Waktu:

Lebih dari Bacaan gelap