Πώς η ευφυΐα απειλών με επαυξημένη τεχνητή νοημοσύνη λύνει ελλείψεις ασφαλείας

Πώς η ευφυΐα απειλών με επαυξημένη τεχνητή νοημοσύνη λύνει ελλείψεις ασφαλείας

Πώς η ευφυΐα με επαυξημένη απειλή τεχνητής νοημοσύνης επιλύει ελλείψεις ασφάλειας Η νοημοσύνη δεδομένων PlatoBlockchain. Κάθετη αναζήτηση. Ολα συμπεριλαμβάνονται.

Οι ομάδες επιχειρήσεων ασφαλείας και πληροφοριών απειλών έχουν χρόνια έλλειψη προσωπικού, κατακλύζονται από δεδομένα και αντιμετωπίζουν ανταγωνιστικές απαιτήσεις — όλα τα ζητήματα που τα συστήματα μεγάλων γλωσσών (LLM) μπορούν να βοηθήσουν να διορθωθούν. Αλλά η έλλειψη εμπειρίας με τα συστήματα εμποδίζει πολλές εταιρείες να υιοθετήσουν την τεχνολογία.

Οι οργανισμοί που εφαρμόζουν LLMs θα μπορούν να συνθέτουν καλύτερα τη νοημοσύνη από ακατέργαστα δεδομένα και εμβαθύνουν τις ικανότητές τους στον τομέα των απειλών-πληροφοριών, αλλά τέτοια προγράμματα χρειάζονται υποστήριξη από την ηγεσία της ασφάλειας για να εστιαστούν σωστά. Οι ομάδες θα πρέπει να εφαρμόζουν LLM για επιλύσιμα προβλήματα και προτού μπορέσουν να το κάνουν αυτό, πρέπει να αξιολογήσουν τη χρησιμότητα των LLM στο περιβάλλον ενός οργανισμού, λέει ο John Miller, επικεφαλής της ομάδας ανάλυσης νοημοσύνης της Mandiant.

«Αυτό στο οποίο στοχεύουμε είναι να βοηθήσουμε τους οργανισμούς να αντιμετωπίσουν την αβεβαιότητα, επειδή δεν υπάρχουν ακόμη πολλές ιστορίες επιτυχίας ή αποτυχίας», λέει ο Miller. «Δεν υπάρχουν ακόμη πραγματικά απαντήσεις που να βασίζονται στη συνήθη διαθέσιμη εμπειρία και θέλουμε να παρέχουμε ένα πλαίσιο για να σκεφτούμε πώς να προσβλέπουμε καλύτερα σε αυτούς τους τύπους ερωτήσεων σχετικά με τον αντίκτυπο».

Σε μια παρουσίαση στο Μαύρο Καπέλο ΗΠΑ αρχές Αυγούστου, με τίτλο «Πώς μοιάζει ένα Πρόγραμμα Πληροφοριών Απειλές με LLM;», ο Miller και ο Ron Graf, ένας επιστήμονας δεδομένων στην ομάδα πληροφοριών-αναλύσεων στο Google Cloud της Mandiant, θα επιδείξουν τους τομείς όπου τα LLM μπορούν να αυξήσουν τους υπαλλήλους ασφαλείας για να επιταχύνουν και να εμβαθύνουν την ανάλυση της κυβερνοασφάλειας.

Τρία συστατικά της νοημοσύνης απειλών

Οι επαγγελματίες ασφάλειας που θέλουν να δημιουργήσουν μια ισχυρή ικανότητα ευφυΐας απειλών για τον οργανισμό τους χρειάζονται τρία στοιχεία για να δημιουργήσουν με επιτυχία μια λειτουργία εσωτερικής νοημοσύνης απειλών, λέει ο Miller στο Dark Reading. Χρειάζονται δεδομένα σχετικά με τις σχετικές απειλές. την ικανότητα επεξεργασίας και τυποποίησης αυτών των δεδομένων ώστε να είναι χρήσιμα· και τη δυνατότητα ερμηνείας του τρόπου με τον οποίο αυτά τα δεδομένα σχετίζονται με ζητήματα ασφάλειας.

Αυτό είναι πιο εύκολο να ειπωθεί παρά να γίνει, επειδή οι ομάδες πληροφοριών απειλών - ή άτομα που είναι υπεύθυνα για τη νοημοσύνη απειλών - συχνά κατακλύζονται από δεδομένα ή αιτήματα από ενδιαφερόμενους φορείς. Ωστόσο, τα LLM μπορούν να βοηθήσουν στη γεφύρωση του χάσματος, επιτρέποντας σε άλλες ομάδες στον οργανισμό να ζητούν δεδομένα με ερωτήματα φυσικής γλώσσας και να λαμβάνουν τις πληροφορίες σε μη τεχνική γλώσσα, λέει. Οι συνήθεις ερωτήσεις περιλαμβάνουν τάσεις σε συγκεκριμένους τομείς απειλών, όπως ransomware ή όταν οι εταιρείες θέλουν να μάθουν για απειλές σε συγκεκριμένες αγορές.

«Οι ηγέτες που πετυχαίνουν να αυξήσουν τη νοημοσύνη απειλών τους με δυνατότητες που βασίζονται στο LLM μπορούν βασικά να σχεδιάσουν υψηλότερη απόδοση επένδυσης από τη λειτουργία πληροφοριών απειλών τους», λέει ο Miller. «Αυτό που μπορεί να περιμένει ένας ηγέτης καθώς σκέφτεται μπροστά, και αυτό που μπορεί να κάνει η τρέχουσα λειτουργία νοημοσύνης του, είναι να δημιουργήσει υψηλότερη ικανότητα με τους ίδιους πόρους για να μπορεί να απαντήσει σε αυτές τις ερωτήσεις».

Το AI δεν μπορεί να αντικαταστήσει τους ανθρώπινους αναλυτές

Οι οργανισμοί που ενστερνίζονται τα LLM και την επαυξημένη με τεχνητή νοημοσύνη απειλών θα έχουν βελτιωμένη ικανότητα να μετασχηματίζουν και να κάνουν χρήση συνόλων δεδομένων ασφάλειας επιχειρήσεων που διαφορετικά θα έμεναν ανεκμετάλλευτα. Ωστόσο, υπάρχουν παγίδες. Η στήριξη σε LLMs για την παραγωγή συνεκτικής ανάλυσης απειλών μπορεί να εξοικονομήσει χρόνο, αλλά μπορεί επίσης, για παράδειγμα, να οδηγήσει σε πιθανές «παραισθήσεις» — ένα μειονέκτημα των LLM όπου το σύστημα θα δημιουργήσει συνδέσεις όπου δεν υπάρχουν ή θα κατασκευάσει πλήρως απαντήσεις, χάρη στην εκπαίδευση σε λανθασμένα ή ελλιπή δεδομένα.

«Εάν βασίζεστε στην παραγωγή ενός μοντέλου για να λάβετε μια απόφαση σχετικά με την ασφάλεια της επιχείρησής σας, τότε θέλετε να μπορείτε να επιβεβαιώσετε ότι κάποιος το έχει εξετάσει, με τη δυνατότητα να αναγνωρίζει εάν υπάρχουν θεμελιώδη σφάλματα, », λέει ο Miller του Google Cloud. «Πρέπει να είστε σε θέση να βεβαιωθείτε ότι έχετε ειδικούς που έχουν τα προσόντα, που μπορούν να μιλήσουν για τη χρησιμότητα της διορατικότητας στην απάντηση σε αυτές τις ερωτήσεις ή στη λήψη αυτών των αποφάσεων».

Τέτοια ζητήματα δεν είναι ανυπέρβλητα, λέει ο Graf του Google Cloud. Οι οργανισμοί θα μπορούσαν να έχουν ανταγωνιστικά μοντέλα αλυσοδεμένα για να κάνουν ουσιαστικά ελέγχους ακεραιότητας και να μειώσουν το ποσοστό των παραισθήσεων. Επιπλέον, η υποβολή ερωτήσεων με βελτιστοποιημένους τρόπους - η λεγόμενη «πρότυπη μηχανική» - μπορεί να οδηγήσει σε καλύτερες απαντήσεις ή τουλάχιστον σε αυτές που είναι πιο εναρμονισμένες με την πραγματικότητα.

Ωστόσο, η διατήρηση μιας τεχνητής νοημοσύνης σε συνδυασμό με έναν άνθρωπο είναι ο καλύτερος τρόπος, λέει ο Graf.

"Είναι η γνώμη μας ότι η καλύτερη προσέγγιση είναι απλώς να συμπεριλάβουμε τους ανθρώπους στον βρόχο", λέει. "Και αυτό θα αποφέρει ούτως ή άλλως βελτιώσεις απόδοσης κατάντη, οπότε οι οργανισμοί εξακολουθούν να καρπώνονται τα οφέλη."

Αυτή η προσέγγιση αύξησης έχει κερδίσει έλξη, καθώς έχουν ενταχθεί εταιρείες κυβερνοασφάλειας άλλες εταιρείες εξερευνούν τρόπους για να μεταμορφώσουν τις βασικές τους δυνατότητες με μεγάλα LLM. Τον Μάρτιο, για παράδειγμα, η Microsoft ξεκίνησε το Security Copilot για να βοηθήσει τις ομάδες κυβερνοασφάλειας να διερευνήσουν παραβιάσεις και να αναζητήσουν απειλές. Και τον Απρίλιο, η εταιρεία πληροφοριών απειλών Recorded Future παρουσίασε μια δυνατότητα ενισχυμένη με LLM, διαπιστώνοντας ότι η ικανότητα του συστήματος να μετατρέπει τεράστια δεδομένα ή τη βαθιά αναζήτηση σε μια απλή συνοπτική αναφορά δύο ή τριών προτάσεων για τον αναλυτή έχει εξοικονομήσει σημαντικό χρόνο για τους επαγγελματίες ασφαλείας της.

«Βασικά, η ευφυΐα απειλών, νομίζω, είναι ένα πρόβλημα «Big Data» και πρέπει να έχετε εκτενή ορατότητα σε όλα τα επίπεδα της επίθεσης στον εισβολέα, στην υποδομή και στους ανθρώπους που στοχεύουν», λέει ο Jamie Zajac. αντιπρόεδρος προϊόντος στο Recorded Future, ο οποίος λέει ότι η τεχνητή νοημοσύνη επιτρέπει στους ανθρώπους να είναι απλώς πιο αποτελεσματικοί σε αυτό το περιβάλλον. «Μόλις έχετε όλα αυτά τα δεδομένα, έχετε το πρόβλημα «πώς το συνθέτετε πραγματικά σε κάτι χρήσιμο;», και ανακαλύψαμε ότι χρησιμοποιώντας τη νοημοσύνη μας και χρησιμοποιώντας μεγάλα γλωσσικά μοντέλα… άρχισε να εξοικονομεί [τους αναλυτές μας] ώρες και ώρες χρόνος."

Σφραγίδα ώρας:

Περισσότερα από Σκοτεινή ανάγνωση