Τα Deepfakes AI αποτελούν απειλή και για τις επιχειρήσεις—Δείτε γιατί - Αποκρυπτογραφήστε

Τα Deepfakes AI αποτελούν απειλή και για τις επιχειρήσεις—Να γιατί – Αποκρυπτογράφηση

Τα Deepfakes AI αποτελούν απειλή και για τις επιχειρήσεις—Να γιατί - Αποκρυπτογραφήστε την ευφυΐα δεδομένων PlatoBlockchain. Κάθετη αναζήτηση. Ολα συμπεριλαμβάνονται.

Καθώς οι τεχνολογικοί γίγαντες ανταγωνίζονται για να φέρουν την τεχνητή νοημοσύνη στις μάζες και να κατέχουν την αναπτυσσόμενη αγορά, η κούρσα εξοπλισμών τεχνητής νοημοσύνης τροφοδοτεί την αύξηση των «deepfake» βίντεο και ήχου—περιεχόμενο που συχνά φαίνεται ή ακούγεται πειστικά νόμιμο, αλλά στην πραγματικότητα είναι μια δόλια παραποίηση. Και επηρεάζουν και τις επιχειρήσεις, σύμφωνα με μια νέα έκθεση.

Τα Deepfakes είναι δημιουργίες που δημιουργούνται από την τεχνητή νοημοσύνη, όπως εικόνες, βίντεο και ήχος, που χειραγωγούνται για να εξαπατήσουν τους ανθρώπους. Οι απατεώνες χρησιμοποιούν deepfakes για απάτη, εκβιασμός, ή να βλάψει τη φήμη. Ο πολλαπλασιασμός των γενετική AI Τα εργαλεία έχουν διευκολύνει από ποτέ τους απατεώνες να δημιουργούν ψεύτικο περιεχόμενο.

Διασημότητες και άλλα δημόσια πρόσωπα εισάγονται σε τεχνητά και μερικές φορές ρητά πλάνα χωρίς τη συγκατάθεσή τους με τρόπους που μερικές φορές γίνονται viral ή μπορεί να προκαλέσουν πανικό στα μέσα κοινωνικής δικτύωσης. Σε έκθεση που παρασχέθηκε στο Αποκρυπτογράφηση, παγκόσμια λογιστική εταιρεία KPMG έγραψε ότι ούτε ο επιχειρηματικός τομέας είναι απρόσβλητος από την απειλή του deepfake.

Το Deepfake περιεχόμενο μπορεί να χρησιμοποιηθεί σε επιθέσεις κοινωνικής μηχανικής και άλλους τύπους κυβερνοεπιθέσεων που στοχεύουν εταιρείες, έγραψε η KPMG, ενώ τέτοιο περιεχόμενο μπορεί επίσης να επηρεάσει τη φήμη των επιχειρήσεων και των ηγετών τους. Ψεύτικες δηλώσεις εκπροσώπων εταιρειών μπορούν επίσης να χρησιμοποιηθούν σε προγράμματα εξαπάτησης πελατών ή για να πειστούν οι εργαζόμενοι να παρέχουν πληροφορίες ή να μεταφέρουν χρήματα σε παράνομους φορείς.

KPMG ανέφερε ένα παράδειγμα του 2020 ενός διευθυντή υποκαταστήματος εταιρείας στο Χονγκ Κονγκ, ο οποίος εξαπατήθηκε ότι μετέφερε εταιρικά κεφάλαια αξίας 35 εκατομμυρίων δολαρίων σε απατεώνες, αφού πίστευε ότι το αφεντικό του τηλεφωνούσε και τον διέταξε να το κάνει. Αντίθετα, ήταν μια αναδημιουργία της φωνής του επόπτη, κλωνοποιημένη από τεχνητή νοημοσύνη - όλα μέρος ενός περίτεχνου σχεδίου εξαπάτησης χρημάτων από την εταιρεία.

«Οι συνέπειες των κυβερνοεπιθέσεων που χρησιμοποιούν συνθετικό περιεχόμενο —ψηφιακό περιεχόμενο που έχει δημιουργηθεί ή χειραγωγηθεί για κακόβουλους σκοπούς— μπορεί να είναι τεράστιες, δαπανηρές και να έχουν ποικίλες κοινωνικοοικονομικές επιπτώσεις, συμπεριλαμβανομένων οικονομικών, φήμης, υπηρεσιών και γεωπολιτικών, μεταξύ άλλων». γράφει η έκθεση.

Deepfake πλάνα με τον Ντόναλντ Τραμπ συνελήφθη νωρίτερα φέτος, Πάπας Φραγκίσκος φορώντας πολυτελή ρούχα Balenciaga και Elon Musk Η προώθηση απατών κρυπτογράφησης έχει γίνει viral τον τελευταίο χρόνο καθώς η τεχνολογία deepfake έχει βελτιωθεί χάρη στα εξελισσόμενα εργαλεία AI.

«Είτε πρόκειται για φθηνά fakes είτε για deepfakes, το οικονομικό μοντέλο έχει αλλάξει σημαντικά λόγω των μοντέλων τεχνητής νοημοσύνης που δημιουργούνται», έγραψε η KPMG.

Πέρα από τα δημόσια πρόσωπα που αναφέρθηκαν παραπάνω, εξέχουσες διασημότητες των οποίων οι ομοιότητες έχουν κλαπεί και έχουν εφαρμοστεί σε πλαστά πλάνα περιλαμβάνουν την ηθοποιό Emma Watson και τη μουσικό Taylor Swift. Αλλά είναι ο πιθανός αντίκτυπος για τις επιχειρήσεις και τους ενίοτε εξέχοντες ηγέτες τους για τον οποίο η KPMG κρούει τον κώδωνα του κινδύνου.

«Ως παράγοντας κινδύνου, το deepfake περιεχόμενο δεν είναι απλώς μια ανησυχία για τα μέσα κοινωνικής δικτύωσης, τις ιστοσελίδες γνωριμιών και τη βιομηχανία ψυχαγωγίας – είναι πλέον θέμα αίθουσας συνεδριάσεων», δήλωσε η KPMG. «Στην περίπτωση αυτή, σχεδόν όλοι οι ερωτηθέντες (92%) σε μια πρόσφατη έρευνα παραγωγής τεχνητής νοημοσύνης της KPMG με 300 στελέχη σε πολλαπλούς κλάδους και γεωγραφικές περιοχές λένε ότι οι ανησυχίες τους σχετικά με τους κινδύνους από την εφαρμογή της γενετικής τεχνητής νοημοσύνης είναι μέτρια έως πολύ σημαντικές».

Δεν είναι μόνο οι επιχειρήσεις και οι διασημότητες που αντιμετωπίζουν την αύξηση τόσο της ποιότητας όσο και του αριθμού των deepfake βίντεο στο διαδίκτυο. Οι κυβερνήσεις και οι ρυθμιστικές αρχές υπολογίζουν επίσης τον πιθανό αντίκτυπο στην κοινωνία και τις εκλογές, ενώ οι δημιουργοί τέτοιων εργαλείων τεχνητής νοημοσύνης σταθμίζουν τον πιθανό αρνητικό αντίκτυπό τους.

Την περασμένη εβδομάδα, η Ομοσπονδιακή Εκλογική Επιτροπή των ΗΠΑ, προβλέποντας τη χρήση deepfakes στις εκλογές του 2024, προχώρησε σε μια αναφορά να απαγορεύσει τη χρήση τεχνητής νοημοσύνης σε διαφημίσεις καμπάνιας.

Εάν εγκριθεί, η υπηρεσία θα τροποποιήσει τους ισχύοντες κανονισμούς σχετικά με τη δόλια ψευδή δήλωση της «αρχής εκστρατείας» και θα διευκρινίσει ότι η απαγόρευση ισχύει για εσκεμμένα παραπλανητικές διαφημίσεις καμπάνιας τεχνητής νοημοσύνης.

«Οι ρυθμιστικές αρχές θα πρέπει να συνεχίσουν να κατανοούν και να εξετάζουν τον αντίκτυπο των εξελισσόμενων απειλών στους υπάρχοντες κανονισμούς», είπε ο Μάθιου Μίλερ, Διευθυντής Υπηρεσιών Κυβερνοασφάλειας στην KPMG. Αποκρυπτογράφηση. «Οι προτεινόμενες απαιτήσεις για την επισήμανση και την υδατοσήμανση περιεχομένου που δημιουργείται με τεχνητή νοημοσύνη θα μπορούσαν να έχουν θετικό αντίκτυπο».

Τον Ιούλιο, ερευνητές στο MIT προτείνεται προσθήκη αλλαγών κώδικα σε μεγάλα μοντέλα διάχυσης για να μετριαστεί ο κίνδυνος deepfakes, προσθέτοντας μικροσκοπικές αλλαγές που είναι δύσκολο να δούμε αλλά τελικά αλλάζουν τον τρόπο λειτουργίας των μοντέλων, με αποτέλεσμα να δημιουργούν εικόνες που δεν φαίνονται αληθινές. Ο Meta, εν τω μεταξύ, πρόσφατα κράτησε πίσω ένα εργαλείο AI λόγω των δυνατοτήτων του για βαθιά ψεύτικη.

Ο ενθουσιασμός γύρω από το δημιουργικό δυναμικό των παραγωγικών εργαλείων AI έχει μετριαστεί από τη συνειδητοποίηση ότι μπορούν παρομοίως να δημιουργήσουν ευκαιρίες για κακόβουλο περιεχόμενο. Τελικά, εν μέσω ραγδαίων βελτιώσεων για τέτοια εργαλεία, ο Miller προέτρεψε όλους να είναι προσεκτικοί σχετικά με το ενδεχόμενο ψεύτικο περιεχόμενο.

«Το κοινό πρέπει να διατηρεί συνεχή επαγρύπνηση όταν αλληλεπιδρά μέσω ψηφιακών καναλιών», είπε Αποκρυπτογράφηση. «Η επίγνωση της κατάστασης και η κοινή λογική συμβάλλουν πολύ στην αποτροπή ενός περιστατικού. Εάν κάτι δεν «αισθάνεται σωστά», έχει μεγάλη πιθανότητα να είναι κακόβουλη δραστηριότητα».

Μείνετε ενημερωμένοι για τα νέα κρυπτογράφησης, λάβετε καθημερινές ενημερώσεις στα εισερχόμενά σας.

Σφραγίδα ώρας:

Περισσότερα από Αποκρυπτογράφηση