Deepfake Democracy: Η τεχνολογία AI περιπλέκει την ασφάλεια των εκλογών

Deepfake Democracy: Η τεχνολογία AI περιπλέκει την ασφάλεια των εκλογών

Deepfake Democracy: Η τεχνολογία AI περιπλέκει την ασφάλεια των εκλογών Η ευφυΐα δεδομένων PlatoBlockchain. Κάθετη αναζήτηση. Ολα συμπεριλαμβάνονται.

Πρόσφατα γεγονότα, συμπεριλαμβανομένου ενός deepfake που δημιουργήθηκε από την τεχνητή νοημοσύνη (AI). Robocall που υποδύεται τον Πρόεδρο Μπάιντεν παροτρύνοντας τους ψηφοφόρους του Νιου Χάμσαϊρ να απόσχουν από τις προκριματικές εκλογές, χρησιμεύει ως έντονη υπενθύμιση ότι οι κακόβουλοι παράγοντες βλέπουν όλο και περισσότερο τις σύγχρονες πλατφόρμες τεχνητής νοημοσύνης (GenAI) ως ένα ισχυρό όπλο για τη στόχευση των αμερικανικών εκλογών.

Πλατφόρμες όπως το ChatGPT, το Gemini της Google (πρώην Bard) ή οποιοσδήποτε αριθμός μοντέλων μεγάλων γλωσσών Dark Web (LLM) θα μπορούσαν να διαδραματίσουν ρόλο στη διακοπή της δημοκρατικής διαδικασίας, με επιθέσεις που περιλαμβάνουν εκστρατείες μαζικής επιρροής, αυτοματοποιημένο τρολάρισμα και διάδοση Deepfake περιεχόμενο.

Μάλιστα, ο διευθυντής του FBI Κρίστοφερ Ρέι εξέφρασε πρόσφατα ανησυχίες σχετικά με τον συνεχιζόμενο πόλεμο πληροφοριών με χρήση deepfakes που θα μπορούσαν να σπείρουν παραπληροφόρηση κατά την επερχόμενη προεδρική εκστρατεία, όπως φορείς που υποστηρίζονται από το κράτος προσπαθούν να επηρεάσουν τις γεωπολιτικές ισορροπίες.

Το GenAI θα μπορούσε επίσης να αυτοματοποιήσει την άνοδο του "συντονισμένη μη αυθεντική συμπεριφοράδίκτυα που προσπαθούν να αναπτύξουν κοινό για τις εκστρατείες παραπληροφόρησης τους μέσω ψεύτικων ειδήσεων, πειστικών προφίλ στα μέσα κοινωνικής δικτύωσης και άλλων τρόπων — με στόχο να σπείρουν διχόνοια και να υπονομεύσουν την εμπιστοσύνη του κοινού στην εκλογική διαδικασία.

Εκλογική επιρροή: Ουσιαστικοί κίνδυνοι και σενάρια εφιάλτη

Από την οπτική γωνία του Padraic O'Reilly, επικεφαλής καινοτομίας για την CyberSaint, ο κίνδυνος είναι «ουσιαστικός» επειδή η τεχνολογία εξελίσσεται τόσο γρήγορα.

«Υπόσχεται να είναι ενδιαφέρον και ίσως λίγο ανησυχητικό, καθώς βλέπουμε νέες παραλλαγές παραπληροφόρησης που αξιοποιούν την τεχνολογία deepfake», λέει.

Συγκεκριμένα, λέει ο O'Reilly, το «εφιαλτικό σενάριο» είναι ότι η μικροστόχευση με περιεχόμενο που δημιουργείται από AI θα πολλαπλασιαστεί στις πλατφόρμες κοινωνικών μέσων. Αυτή είναι μια γνωστή τακτική από το Το σκάνδαλο Cambridge Analytica, όπου η εταιρεία συγκέντρωσε δεδομένα ψυχολογικού προφίλ σε 230 εκατομμύρια ψηφοφόρους στις ΗΠΑ, προκειμένου να προσφέρει εξαιρετικά προσαρμοσμένα μηνύματα μέσω Facebook σε άτομα σε μια προσπάθεια να επηρεάσει τις πεποιθήσεις — και τις ψήφους τους. Αλλά το GenAI θα μπορούσε να αυτοματοποιήσει αυτή τη διαδικασία σε κλίμακα και να δημιουργήσει εξαιρετικά πειστικό περιεχόμενο που θα είχε λίγα, αν όχι καθόλου, χαρακτηριστικά «bot» που θα μπορούσαν να αποτρέψουν τους ανθρώπους.

«Τα κλεμμένα δεδομένα στόχευσης [στιγμιότυπα προσωπικότητας για το ποιος είναι ένας χρήστης και τα ενδιαφέροντά του] που συγχωνεύονται με περιεχόμενο που δημιουργείται από AI είναι πραγματικός κίνδυνος», εξηγεί. «Οι ρωσικές εκστρατείες παραπληροφόρησης του 2013-2017 υποδηλώνουν τι άλλο θα μπορούσε και θα συμβεί, και γνωρίζουμε για deepfakes που δημιουργούνται από πολίτες των ΗΠΑ [όπως αυτή] με τον Μπάιντεν και Elizabeth Warren. "

Ο συνδυασμός των μέσων κοινωνικής δικτύωσης και άμεσα διαθέσιμη τεχνολογία deepfake θα μπορούσε να είναι ένα όπλο της μοίρας για την πόλωση των πολιτών των ΗΠΑ σε μια ήδη βαθιά διχασμένη χώρα, προσθέτει.

«Η δημοκρατία βασίζεται σε ορισμένες κοινές παραδόσεις και πληροφορίες και ο κίνδυνος εδώ είναι η αυξημένη βαλκανοποίηση μεταξύ των πολιτών, που οδηγεί σε αυτό που η ερευνήτρια του Στάνφορντ Renée DiResta αποκάλεσε «κατά παραγγελία πραγματικότητες», λέει ο O'Reilly, γνωστός και ως άνθρωποι που πιστεύουν σε «εναλλακτικά γεγονότα».

Οι πλατφόρμες που χρησιμοποιούν οι φορείς απειλών για να σπείρουν τη διαίρεση πιθανότατα θα βοηθήσουν ελάχιστα: Προσθέτει ότι, για παράδειγμα, η πλατφόρμα κοινωνικής δικτύωσης X, παλαιότερα γνωστή ως Twitter, έχει καταργήσει τη διασφάλιση ποιότητας (QA) στο περιεχόμενο.

«Οι άλλες πλατφόρμες έχουν παράσχει διαβεβαιώσεις ότι θα αντιμετωπίσουν την παραπληροφόρηση, αλλά η προστασία της ελευθερίας του λόγου και η έλλειψη ρύθμισης εξακολουθούν να αφήνουν το πεδίο ανοιχτό για κακούς παράγοντες», προειδοποιεί.

Η τεχνητή νοημοσύνη ενισχύει τα υπάρχοντα TTP phishing

Το GenAI χρησιμοποιείται ήδη για να δημιουργήσει πιο πιστευτές, στοχευμένες εκστρατείες phishing σε κλίμακα — αλλά στο πλαίσιο της εκλογικής ασφάλειας αυτό το φαινόμενο είναι πιο ανησυχητικό, σύμφωνα με τον Scott Small, διευθυντή πληροφοριών για τις απειλές στον κυβερνοχώρο στην Tidal Cyber.

«Αναμένουμε να δούμε τους αντιπάλους του κυβερνοχώρου να υιοθετούν γενετική τεχνητή νοημοσύνη για να κάνουν επιθέσεις phishing και κοινωνικής μηχανικής - τις κορυφαίες μορφές επιθέσεων που σχετίζονται με τις εκλογές από άποψη σταθερού όγκου για πολλά χρόνια - πιο πειστικές, καθιστώντας πιο πιθανό ότι οι στόχοι θα αλληλεπιδράσουν με κακόβουλο περιεχόμενο. " εξηγεί.

Ο Small λέει ότι η υιοθέτηση της τεχνητής νοημοσύνης μειώνει επίσης το εμπόδιο εισόδου για την έναρξη τέτοιων επιθέσεων, ένας παράγοντας που είναι πιθανό να αυξήσει τον όγκο των καμπανιών φέτος που προσπαθούν να διεισδύσουν σε καμπάνιες ή να κατακτήσουν λογαριασμούς υποψηφίων για σκοπούς πλαστοπροσωπίας, μεταξύ άλλων δυνατοτήτων.

«Εγκληματίες και αντίπαλοι εθνικών κρατών προσαρμόζουν τακτικά το phishing και τα θέλγητρα κοινωνικής μηχανικής σε τρέχοντα γεγονότα και δημοφιλή θέματα, και αυτοί οι παράγοντες θα προσπαθήσουν σχεδόν σίγουρα να εκμεταλλευτούν την έκρηξη του ψηφιακού περιεχομένου που σχετίζεται με τις εκλογές που διανέμεται γενικά φέτος, για να προσπαθήσουν να προσφέρουν κακόβουλο περιεχόμενο σε ανυποψίαστους χρήστες», λέει.

Άμυνα ενάντια στις εκλογικές απειλές AI

Για να αμυνθούν από αυτές τις απειλές, οι εκλογικοί αξιωματούχοι και οι εκστρατείες πρέπει να γνωρίζουν τους κινδύνους που τροφοδοτούνται από το GenAI και πώς να αμυνθούν εναντίον τους.

«Οι εκλογικοί αξιωματούχοι και οι υποψήφιοι δίνουν συνεχώς συνεντεύξεις και συνεντεύξεις Τύπου από τις οποίες οι παράγοντες απειλών μπορούν να αντλήσουν ήχο για deepfakes που βασίζονται στην τεχνητή νοημοσύνη», λέει ο James Turgal, αντιπρόεδρος κυβερνοκινδύνου στην Optiv. "Ως εκ τούτου, εναπόκειται σε αυτούς να βεβαιωθούν ότι έχουν ένα άτομο ή μια ομάδα υπεύθυνη για τη διασφάλιση του ελέγχου του περιεχομένου."

Πρέπει επίσης να βεβαιωθούν ότι οι εθελοντές και οι εργαζόμενοι εκπαιδεύονται σε απειλές με τεχνητή νοημοσύνη, όπως η βελτιωμένη κοινωνική μηχανική, οι παράγοντες απειλών πίσω από αυτούς και πώς να αντιδρούν σε ύποπτη δραστηριότητα.

Για το σκοπό αυτό, το προσωπικό θα πρέπει να συμμετέχει σε εκπαίδευση κοινωνικής μηχανικής και βαθιάς ψεύτικης βίντεο που περιλαμβάνει πληροφορίες για όλες τις μορφές και φορείς επίθεσης, συμπεριλαμβανομένων ηλεκτρονικών (email, κειμένου και πλατφόρμες μέσων κοινωνικής δικτύωσης), αυτοπροσώπων και τηλεφωνικών προσπαθειών.

"Αυτό είναι τόσο σημαντικό - ειδικά με τους εθελοντές - επειδή δεν έχουν όλοι καλή υγιεινή στον κυβερνοχώρο", λέει ο Turgal.

Επιπλέον, οι εθελοντές εκστρατειών και εκλογών πρέπει να εκπαιδεύονται στο πώς να παρέχουν με ασφάλεια πληροφορίες στο διαδίκτυο και σε εξωτερικές οντότητες, συμπεριλαμβανομένων των αναρτήσεων στα μέσα κοινωνικής δικτύωσης, και να είναι προσεκτικοί όταν το κάνουν.

«Οι φορείς απειλών στον κυβερνοχώρο μπορούν να συγκεντρώσουν αυτές τις πληροφορίες για να προσαρμόσουν τα κοινωνικά σχεδιασμένα δέλεαρ σε συγκεκριμένους στόχους», προειδοποιεί.

Ο O'Reilly λέει μακροπρόθεσμα, ρύθμιση που περιλαμβάνει υδατογράφημα για βαθιά ψεύτικα ήχου και βίντεο θα είναι αποφασιστικής σημασίας, σημειώνοντας ότι η ομοσπονδιακή κυβέρνηση συνεργάζεται με τους ιδιοκτήτες των LLM για την εφαρμογή μέτρων προστασίας.

Στην πραγματικότητα, η Η Ομοσπονδιακή Επιτροπή Επικοινωνιών (FCC) μόλις ανακοίνωσε Οι φωνητικές κλήσεις που δημιουργούνται από την τεχνητή νοημοσύνη θεωρούνται «τεχνητές» σύμφωνα με τον Νόμο για την Προστασία των Καταναλωτών Τηλεφωνικής Χρήσης (TCPA), καθιστώντας παράνομη τη χρήση της τεχνολογίας κλωνοποίησης φωνής και παρέχοντας στους γενικούς εισαγγελείς σε εθνικό επίπεδο νέα εργαλεία για την καταπολέμηση τέτοιων δόλιων δραστηριοτήτων.

«Η τεχνητή νοημοσύνη κινείται τόσο γρήγορα που υπάρχει εγγενής κίνδυνος τυχόν προτεινόμενοι κανόνες να καταστούν αναποτελεσματικοί καθώς η τεχνολογία προχωρά, χάνοντας πιθανώς τον στόχο», λέει ο O'Reilly. «Κατά κάποιους τρόπους, είναι η Άγρια Δύση και η τεχνητή νοημοσύνη έρχεται στην αγορά με ελάχιστα μέτρα ασφαλείας».

Σφραγίδα ώρας:

Περισσότερα από Σκοτεινή ανάγνωση