Αναδιαμόρφωση του τοπίου των απειλών: Οι Deepfake Κυβερνοεπιθέσεις είναι εδώ Πλατοβακτηριακή ευφυΐα δεδομένων. Κάθετη αναζήτηση. Ολα συμπεριλαμβάνονται.

Αναδιαμόρφωση του τοπίου της απειλής: Οι Deepfake Cyberattacks είναι εδώ

Οι κακόβουλες καμπάνιες που περιλαμβάνουν τη χρήση τεχνολογιών deepfake είναι πολύ πιο κοντά από ό,τι πολλοί θα μπορούσαν να υποθέσουν. Επιπλέον, ο μετριασμός και ο εντοπισμός τους είναι δύσκολος.

Μια νέα μελέτη για τη χρήση και την κατάχρηση των deepfakes από εγκληματίες του κυβερνοχώρου δείχνει ότι όλα τα απαραίτητα στοιχεία για την ευρεία χρήση της τεχνολογίας είναι διαθέσιμα και είναι άμεσα διαθέσιμα σε υπόγειες αγορές και ανοιχτά φόρουμ. Η μελέτη της Trend Micro δείχνει ότι πολλές απάτες ηλεκτρονικού "ψαρέματος" (phishing) με δυνατότητα deepfake, συμβιβασμός επιχειρηματικών μηνυμάτων ηλεκτρονικού ταχυδρομείου (BEC) και διαφημιστικές απάτες συμβαίνουν ήδη και αναδιαμορφώνοντας γρήγορα το τοπίο απειλών.

Όχι πια μια υποθετική απειλή

«Από υποθετικές απειλές και απειλές απόδειξης της ιδέας, [οι επιθέσεις με δυνατότητα βαθιάς ψεύδους] έχουν περάσει στο στάδιο όπου οι μη ώριμοι εγκληματίες είναι σε θέση να χρησιμοποιούν τέτοιες τεχνολογίες», λέει ο Vladimir Kropotov, ερευνητής ασφάλειας της Trend Micro και ο κύριος συγγραφέας ενός αναφορά για το θέμα που κυκλοφόρησε αυτή την εβδομάδα ο προμηθευτής ασφάλειας. 

«Βλέπουμε ήδη πώς τα deepfakes ενσωματώνονται σε επιθέσεις κατά χρηματοπιστωτικών ιδρυμάτων, απάτες και απόπειρες πλαστοπροσωπίας πολιτικών», λέει, προσθέτοντας ότι αυτό που είναι τρομακτικό είναι ότι πολλές από αυτές τις επιθέσεις χρησιμοποιούν ταυτότητες πραγματικών ανθρώπων — συχνά αποκομμένες από περιεχόμενο που δημοσιεύουν σε κοινωνικά δίκτυα. δίκτυα μέσων ενημέρωσης.

Ένα από τα κύρια σημεία της μελέτης της Trend Micro είναι η έτοιμη διαθεσιμότητα εργαλείων, εικόνων και βίντεο για τη δημιουργία deepfakes. Ο προμηθευτής ασφαλείας διαπίστωσε, για παράδειγμα, ότι πολλά φόρουμ, συμπεριλαμβανομένου του GitHub, προσφέρουν πηγαίο κώδικα για την ανάπτυξη deepfakes σε όποιον το θέλει. Ομοίως, αρκετές υψηλής ποιότητας εικόνες και βίντεο απλών ατόμων και δημοσίων προσώπων είναι διαθέσιμα για κακούς ηθοποιούς ώστε να μπορούν να δημιουργήσουν εκατομμύρια πλαστές ταυτότητες ή να υποδυθούν πολιτικούς, ηγέτες επιχειρήσεων και άλλες διάσημες προσωπικότητες.

Η ζήτηση για deepfake υπηρεσίες και άτομα με εξειδίκευση στο θέμα αυξάνεται επίσης στα υπόγεια φόρουμ. Η Trend Micro βρήκε διαφημίσεις από εγκληματίες που αναζητούσαν αυτές τις δεξιότητες για να πραγματοποιήσουν απάτες κρυπτονομισμάτων και απάτες που στοχεύουν μεμονωμένους οικονομικούς λογαριασμούς. 

«Οι ηθοποιοί μπορούν ήδη να υποδυθούν και να κλέψουν τις ταυτότητες πολιτικών, στελεχών C-level και διασημοτήτων», ανέφερε στην έκθεσή της η Trend Micro. «Αυτό θα μπορούσε να αυξήσει σημαντικά το ποσοστό επιτυχίας ορισμένων επιθέσεων, όπως χρηματοοικονομικά σχέδια, βραχύβιες εκστρατείες παραπληροφόρησης, χειραγώγηση της κοινής γνώμης και εκβιασμό».

Πληθώρα κινδύνων

Υπάρχει επίσης ένας αυξανόμενος κίνδυνος κλεμμένων ή αναδημιουργημένων ταυτοτήτων που ανήκουν σε απλούς ανθρώπους να χρησιμοποιηθούν για την εξαπάτηση των πλαστογραφούμενων θυμάτων ή για τη διεξαγωγή κακόβουλων δραστηριοτήτων με την ταυτότητά τους. 

Σε πολλές ομάδες συζήτησης, το Trend Micro βρήκε τους χρήστες να συζητούν ενεργά τρόπους χρήσης deepfakes για την παράκαμψη τραπεζικών και άλλων ελέγχων επαλήθευσης λογαριασμών — ειδικά εκείνων που περιλαμβάνουν μεθόδους επαλήθευσης βίντεο και πρόσωπο με πρόσωπο.

Για παράδειγμα, οι εγκληματίες θα μπορούσαν να χρησιμοποιήσουν την ταυτότητα ενός θύματος και να χρησιμοποιήσουν ένα ψεύτικο βίντεο του για να ανοίξουν τραπεζικούς λογαριασμούς, οι οποίοι αργότερα θα μπορούσαν να χρησιμοποιηθούν για δραστηριότητες ξεπλύματος χρήματος. Μπορούν παρομοίως να κλέβουν λογαριασμούς, να πλαστογραφούν ανώτατα στελέχη σε οργανισμούς για να ξεκινήσουν δόλια μεταφορά χρημάτων ή να φυτέψουν πλαστά στοιχεία για να εκβιάσουν άτομα, είπε η Trend Micro. 

Συσκευές όπως η Alexa της Amazon και το iPhone, που χρησιμοποιούν αναγνώριση φωνής ή προσώπου, θα μπορούσαν σύντομα να βρίσκονται στη λίστα των συσκευών-στόχων για επιθέσεις που βασίζονται σε deepfake, σημείωσε ο προμηθευτής ασφαλείας.

«Δεδομένου ότι πολλές εταιρείες εξακολουθούν να εργάζονται σε απομακρυσμένη ή μικτή λειτουργία, υπάρχει αυξημένος κίνδυνος πλαστοπροσωπία προσωπικού σε κλήσεις συνδιάσκεψης που μπορεί να επηρεάσει τις εσωτερικές και εξωτερικές επιχειρηματικές επικοινωνίες και τις ευαίσθητες επιχειρηματικές διαδικασίες και τις χρηματοοικονομικές ροές», λέει ο Kropotov.

Η Trend Micro δεν είναι η μόνη που κρούει τον κώδωνα του κινδύνου στα deepfakes. Μια πρόσφατη διαδικτυακή έρευνα που διεξήγαγε η VMware σε 125 επαγγελματίες της κυβερνοασφάλειας και αντιμετώπισης περιστατικών διαπίστωσε επίσης ότι οι απειλές με δυνατότητα deepfake δεν έρχονται απλώς — είναι ήδη εδώ. Ένα εκπληκτικό 66% —αύξηση κατά 13% από το 2021— των ερωτηθέντων είπε ότι είχαν βιώσει ένα περιστατικό ασφαλείας που αφορούσε τη χρήση deepfake τους τελευταίους 12 μήνες.

«Παραδείγματα deepfake επιθέσεων [ήδη] που έχουν γίνει μάρτυρες περιλαμβάνουν φωνητικές κλήσεις CEO σε έναν οικονομικό διευθυντή που οδηγεί σε τραπεζικό έμβασμα, καθώς και κλήσεις εργαζομένων στο IT για την έναρξη επαναφοράς κωδικού πρόσβασης», λέει ο Rick McElroy, κύριος στρατηγικός κυβερνοασφάλειας της VMware.

Λίγοι μετριασμούς για επιθέσεις Deepfake και ο εντοπισμός είναι δύσκολος

Σε γενικές γραμμές, αυτοί οι τύποι επιθέσεων μπορούν να είναι αποτελεσματικοί, επειδή δεν υπάρχουν ακόμη διαθέσιμες τεχνολογικές λύσεις για την αντιμετώπιση της πρόκλησης, λέει ο McElroy. 

«Δεδομένης της αυξανόμενης χρήσης και της πολυπλοκότητας στη δημιουργία deepfakes, θεωρώ ότι αυτή είναι μια από τις μεγαλύτερες απειλές για τους οργανισμούς από την άποψη της απάτης και της απάτης που προχωρά», προειδοποιεί. 

Ο πιο αποτελεσματικός τρόπος για να μετριάσει την απειλή αυτή τη στιγμή είναι να αυξηθεί η συνειδητοποίηση του προβλήματος μεταξύ των οικονομικών, στελεχών και ομάδων πληροφορικής που αποτελούν τους κύριους στόχους για αυτές τις επιθέσεις κοινωνικής μηχανικής. 

«Οι οργανισμοί μπορούν να εξετάσουν μεθόδους χαμηλής τεχνολογίας για να σπάσουν τον κύκλο. Αυτό μπορεί να περιλαμβάνει τη χρήση μιας πρόκλησης και μιας φράσης πρόσβασης μεταξύ των στελεχών κατά την εξαγωγή χρημάτων από έναν οργανισμό ή την πραγματοποίηση μιας διαδικασίας έγκρισης δύο βημάτων και επαλήθευσης», λέει.

Ο Gil Dabah, συνιδρυτής και διευθύνων σύμβουλος της Piaano, συνιστά επίσης τον αυστηρό έλεγχο πρόσβασης ως μέτρο μετριασμού. Κανένας χρήστης δεν θα πρέπει να έχει πρόσβαση σε μεγάλα κομμάτια προσωπικών δεδομένων και οι οργανισμοί πρέπει να θέσουν όρια τιμών καθώς και ανίχνευση ανωμαλιών, λέει.

«Ακόμη και συστήματα όπως η επιχειρηματική ευφυΐα, που απαιτούν ανάλυση μεγάλων δεδομένων, θα πρέπει να έχουν πρόσβαση μόνο σε συγκαλυμμένα δεδομένα», σημειώνει ο Dabah, προσθέτοντας ότι κανένα ευαίσθητο προσωπικό στοιχείο δεν πρέπει να διατηρείται σε απλό κείμενο και δεδομένα όπως τα PII θα πρέπει να είναι διακριτικά και να προστατεύονται.

Εν τω μεταξύ, στο μέτωπο ανίχνευσης, οι εξελίξεις σε τεχνολογίες όπως η τεχνητή νοημοσύνη Γενετικά Διαφορικά Δίκτυα (GAN) έχουν κάνει πιο δύσκολο τον εντοπισμό του deepfake. «Αυτό σημαίνει ότι δεν μπορούμε να βασιστούμε σε περιεχόμενο που περιέχει ενδείξεις «τεχνουργημάτων» ότι έχει υπάρξει αλλαγή», λέει ο Λου Στάινμπεργκ, συνιδρυτής και διευθύνων συνεργάτης της CTM Insights.

Για να εντοπίσουν παραποιημένο περιεχόμενο, οι οργανισμοί χρειάζονται δακτυλικά αποτυπώματα ή υπογραφές που αποδεικνύουν ότι κάτι δεν έχει αλλάξει, προσθέτει.

«Ακόμα καλύτερο είναι να παίρνετε μικροδακτυλικά αποτυπώματα σε τμήματα του περιεχομένου και να μπορείτε να προσδιορίσετε τι έχει αλλάξει και τι όχι», λέει. "Αυτό είναι πολύ πολύτιμο όταν μια εικόνα έχει υποστεί επεξεργασία, αλλά ακόμη περισσότερο όταν κάποιος προσπαθεί να κρύψει μια εικόνα από την ανίχνευση."

Τρεις ευρείες κατηγορίες απειλών

Ο Steinberg λέει ότι οι deepfake απειλές εμπίπτουν σε τρεις μεγάλες κατηγορίες. Το πρώτο είναι οι καμπάνιες παραπληροφόρησης που περιλαμβάνουν κυρίως τροποποιήσεις σε νόμιμο περιεχόμενο για να αλλάξουν το νόημα. Για παράδειγμα, ο Steinberg επισημαίνει ηθοποιούς εθνικών κρατών που χρησιμοποιούν εικόνες και βίντεο ψεύτικων ειδήσεων στα μέσα κοινωνικής δικτύωσης ή εισάγουν κάποιον σε μια φωτογραφία που δεν υπήρχε αρχικά — κάτι που χρησιμοποιείται συχνά για πράγματα όπως υπονοούμενες εγκρίσεις προϊόντων ή πορνό εκδίκησης.

Μια άλλη κατηγορία περιλαμβάνει ανεπαίσθητες αλλαγές σε εικόνες, λογότυπα και άλλο περιεχόμενο για παράκαμψη εργαλείων αυτοματοποιημένου εντοπισμού, όπως αυτά που χρησιμοποιούνται για τον εντοπισμό λογότυπων προϊόντων, εικόνες που χρησιμοποιούνται σε καμπάνιες ηλεκτρονικού ψαρέματος ή ακόμα και εργαλεία για τον εντοπισμό παιδικής πορνογραφίας.

Η τρίτη κατηγορία περιλαμβάνει συνθετικά ή σύνθετα deepfakes που προέρχονται από μια συλλογή πρωτότυπων για να δημιουργήσουν κάτι εντελώς νέο, λέει ο Steinberg. 

«Αρχίσαμε να το βλέπουμε με ήχο πριν από μερικά χρόνια, χρησιμοποιώντας συνθετική ομιλία από υπολογιστή για να νικήσουμε τα φωνητικά αποτυπώματα στα τηλεφωνικά κέντρα των χρηματοοικονομικών υπηρεσιών», λέει. "Το βίντεο χρησιμοποιείται τώρα για πράγματα όπως μια σύγχρονη εκδοχή συμβιβασμού για επαγγελματικά email ή για να βλάψει τη φήμη, με το να πει κάποιος κάτι που δεν είπε ποτέ."

Σφραγίδα ώρας:

Περισσότερα από Σκοτεινή ανάγνωση