Ο οικονομικός διευθυντής του Deepfake ξεγελάει τη βιομηχανία του Χονγκ Κονγκ με 25 εκατομμύρια δολάρια

Ο οικονομικός διευθυντής του Deepfake ξεγελάει τη βιομηχανία του Χονγκ Κονγκ με 25 εκατομμύρια δολάρια

Ο CFO του Deepfake ξεγελά τη βιομηχανία του Χονγκ Κονγκ με 25 εκατομμύρια δολάρια το PlatoBlockchain Data Intelligence. Κάθετη αναζήτηση. Ολα συμπεριλαμβάνονται.

Ένας επαγγελματίας χρηματοοικονομικός σε μια πολυεθνική εταιρεία με έδρα το Χονγκ Κονγκ φέρεται να εξαπατήθηκε από 25 εκατομμύρια δολάρια (200 εκατομμύρια δολάρια HK) εταιρικών χρημάτων όταν απατεώνες δημιούργησαν ένα deepfake του επικεφαλής οικονομικού διευθυντή του που εδρεύει στο Λονδίνο σε μια τηλεδιάσκεψη.

Ο Χονγκ Κονγκέρ συμμετείχε σε ένα vidchat στο οποίο εμφανίστηκε ο CFO του - αλλά εμφανίστηκε λίγο μακριά. Τόσο πολύ που ο υπάλληλος ήταν αρχικά καχύποπτος. Αλλά τα νεύρα του ηρεμήθηκαν καθώς άλλοι συνάδελφοι που αναγνώρισε φάνηκαν να συμμετάσχουν στην κλήση, η αστυνομία του Χονγκ Κονγκ σύμφωνα με πληροφορίες εξήγησε.

Ο ψεύτικος οικονομικός διευθυντής έκανε ολοένα και πιο επείγουσες παρακλήσεις για την εκτέλεση μεταφορών χρημάτων και το θύμα συμμορφώθηκε με τις οδηγίες που δόθηκαν κατά τη διάρκεια της κλήσης – τελικά έκανε 15 μεταφορές σε πέντε τοπικούς τραπεζικούς λογαριασμούς.

Τα βίντεο που δημιουργήθηκαν από την τεχνητή νοημοσύνη φέρεται να δημιουργήθηκαν από προηγούμενες γνήσιες διαδικτυακές διασκέψεις. Για να προσθέσουν βάθος και αξιοπιστία στην απάτη, οι δράστες χρησιμοποίησαν WhatsApp, ηλεκτρονικό ταχυδρομείο και βιντεοδιασκέψεις ένας προς έναν με μέλη του προσωπικού του Χονγκ Κονγκ.

«Πιστεύω ότι ο απατεώνας κατέβασε βίντεο εκ των προτέρων και στη συνέχεια χρησιμοποίησε τεχνητή νοημοσύνη για να προσθέσει ψεύτικες φωνές για χρήση στη βιντεοδιάσκεψη», ανέφερε ο ανώτερος επιθεωρητής της αστυνομίας της πόλης, βαρόνος Τσαν Σουν-τσινγκ.

Το τι άλλο ακριβώς συνέβη στο μοιραίο τηλεφώνημα αμφισβητείται. Ορισμένες αναφορές υποδηλώνουν ότι μόνο ένας συμμετέχων στην κλήση ήταν πραγματικός, ενώ άλλες αναφέρουν ότι πολλοί συμμετέχοντες ήταν άνθρωποι.

Όλοι συμφωνούν ότι εμφανίστηκαν άνθρωποι που δημιουργήθηκαν από την τεχνητή νοημοσύνη και ότι δυστυχώς, ο ανώνυμος επαγγελματίας των οικονομικών εξαπατήθηκε. Αυτή η πραγματικότητα ανακαλύφθηκε από το θύμα μόνο αφού επικοινώνησε με τα κεντρικά γραφεία της εταιρείας (επίσης ανώνυμη).

Τοπικά μέσα ενημέρωσης Το Πρότυπο δηλώνονται το περιστατικό, η πρώτη απάτη με τηλεδιάσκεψη βαθιάς ψευδούς στο Χονγκ Κονγκ.

Σε μια πιο απλή, πιο αθώα εποχή –πριν από ενάμιση χρόνο περίπου– ο ερευνητής του Sophos, John Shier είπε Το Reg Τα deepfakes δεν αποτελούσαν μεγάλη απειλή.

Σύμφωνα με τον Shier, οι απατεώνες προτιμούσαν απλούστερες και φθηνές επιθέσεις, όπως το παλιομοδίτικο phishing.

Είτε καθοδηγούμενοι από την ελκυστικότητα των μεγαλύτερων οικονομικών κινήτρων, είτε επηρεασμένοι από τις πρόσφατες σημαντικές εξελίξεις στην τεχνολογία AI που διευκολύνουν τη δημιουργία τους, φαίνεται ότι η εποχή της αδιαφορίας για τα deepfakes εξαφανίζεται γρήγορα.

Αν και η απάτη του CFO μπορεί να είναι η πρώτη που αναφέρθηκε στο Χονγκ Κονγκ για χρήση τηλεδιάσκεψης, δεν είναι η μόνη απάτη που χρησιμοποιεί την τεχνολογία. Σύμφωνα με CNN, η αστυνομία του Χονγκ Κονγκ αποκάλυψε σε συνέντευξη Τύπου την Παρασκευή ότι είχε προχωρήσει σε έξι συλλήψεις σε σχέση με άλλες απάτες deepfake και ότι τα deepfake AI είχαν χρησιμοποιηθεί τουλάχιστον 20 φορές για να εξαπατήσουν το λογισμικό αναγνώρισης προσώπου.

Το πρόβλημα του deepfake είναι επίσης παγκόσμιο. Αμερικανοί γερουσιαστές την περασμένη εβδομάδα εισήγαγε ένα δικομματικό νομοσχέδιο που θα επέτρεπε στα θύματα που απεικονίζονται σε μη συναινετικά πορνογραφικά ψεύτικα που δημιουργούνται από την τεχνητή νοημοσύνη να μηνύσουν τους δημιουργούς των βίντεο.

Αυτή η κίνηση ήρθε μετά από σεξουαλικές εικόνες της Taylor Swift που δημιουργήθηκαν από AI πολλαπλασιάστηκε σε πλατφόρμες μέσων κοινωνικής δικτύωσης – συμπεριλαμβανομένου του X/Twitter, όπου συγκέντρωσαν δεκάδες εκατομμύρια προβολές προτού ο ιστότοπος που ανήκει στον Musk αποκλείσει τις αναζητήσεις για το εικονίδιο ποπ.

Η Ινδία είχε παρόμοια προβλήματα όταν ένα λιγότερο γραφικό –αλλά εξακολουθεί να παραβιάζει προσωπικά και επαγγελματικά– βίντεο του Ινδού ηθοποιού Rashmika Mandanna που δημιουργήθηκε από την τεχνητή νοημοσύνη εμφανίστηκε στο διαδίκτυο τον Νοέμβριο.

Ινδός υπουργός πληροφορικής Rajeev Chandrasekhar σύμφωνα με πληροφορίες προειδοποίησε στα τέλη Ιανουαρίου ότι οι πλατφόρμες μέσων κοινωνικής δικτύωσης θα θεωρηθούν υπεύθυνες για τα deepfakes που αναρτούν οι χρήστες τους. ®

Σφραγίδα ώρας:

Περισσότερα από Το μητρώο