Τα deepfakes σε πραγματικό χρόνο μπορούν να νικηθούν με μια λοξή ματιά στο PlatoBlockchain Data Intelligence. Κάθετη αναζήτηση. Ολα συμπεριλαμβάνονται.

Τα deepfakes σε πραγματικό χρόνο μπορούν να νικηθούν με μια λοξή ματιά

Τα βαθιά ψεύτικα βίντεο σε πραγματικό χρόνο, που προαναγγέλλονται ως οι φέροντες μια νέα εποχή αβεβαιότητας στο διαδίκτυο, φαίνεται να έχουν ένα θεμελιώδες ελάττωμα: Δεν μπορούν να χειριστούν τα πλευρικά προφίλ.

Αυτό είναι το συμπέρασμα που βγαίνει στο α αναφέρουν [PDF] από το Metaphysic.ai, το οποίο ειδικεύεται στα 3D avatars, στην τεχνολογία deepfake και στην απόδοση τρισδιάστατων εικόνων από φωτογραφίες 3D. Σε δοκιμές που διεξήχθησαν χρησιμοποιώντας δημοφιλή εφαρμογή deepfake σε πραγματικό χρόνο DeepFaceLive, μια σκληρή στροφή στο πλάι έκανε εύκολα φανερό ότι το άτομο στην οθόνη δεν ήταν αυτό που φαινόταν. 

Στη δοκιμή χρησιμοποιήθηκαν πολλά μοντέλα – αρκετά από κοινότητες deepfake και μοντέλα που περιλαμβάνονται στο DeepFaceLive – αλλά η προβολή 90 μοιρών του προσώπου προκάλεσε τρεμόπαιγμα και παραμόρφωση καθώς το Facial Alignment Network που χρησιμοποιούσε για την εκτίμηση των στάσεων δυσκολευόταν να καταλάβει τι έβλεπε. 

Ένα ζευγάρι εικόνων από τις δοκιμές του Metaphysic που δείχνουν έναν ψεύτικο Jim Carrey και το αποτέλεσμα της στροφής στο πλάι.

«Οι περισσότεροι αλγόριθμοι ευθυγράμμισης προσώπου που βασίζονται σε 2D εκχωρούν μόνο το 50-60 τοις εκατό του αριθμού των ορόσημων από την εμπρός όψη σε μια προβολή προφίλ», δήλωσε ο συνεργάτης του Metaphysic.ai, Μάρτιν Άντερσον, ο οποίος έγραψε τη μελέτη της μελέτης. ανάρτηση.

Χωρίς να μπορεί να δει αρκετά σημεία αναφοράς, το λογισμικό απλά δεν ξέρει πώς να προβάλει το ψεύτικο πρόσωπό του.

Derailing deepfakes

Μέσα σε λίγα μόλις χρόνια, τα deepfakes έχουν προχωρήσει από το να μπορούν να τοποθετούν πρόσωπα σε εικόνες, να κάνουν το ίδιο σε προηχογραφημένα βίντεο. Οι πιο πρόσφατες εξελίξεις επιτρέπουν την ανταλλαγή προσώπων σε πραγματικό χρόνο, η οποία είχε ως αποτέλεσμα τη χρήση περισσότερων deepfakes σε διαδικτυακές απάτες και εγκλήματα στον κυβερνοχώρο.

A μελέτη από τη VMware διαπίστωσε ότι τα δύο τρίτα των ερωτηθέντων αντιμετώπισαν κακόβουλα deepfakes ως μέρος μιας επίθεσης, μια αύξηση 13 τοις εκατό από το προηγούμενο έτος. Σημειώστε ότι η μελέτη VMware δεν διευκρίνισε εάν οι επιθέσεις deepfake που αντιμετώπισαν οι ερωτηθέντες ήταν προηχογραφημένες ή σε πραγματικό χρόνο και είχε μόνο ένα μέγεθος δείγματος 125 ατόμων.

Το FBI προειδοποίησε τον Ιούνιο για απατεώνες που χρησιμοποιούν τεχνολογία deepfake κατά τη διάρκεια συνεντεύξεων εργασίας εξ αποστάσεως. Όσοι χρησιμοποιούν την τεχνική έχουν εντοπιστεί να κάνουν συνεντεύξεις για ευαίσθητες δουλειές που θα τους έδιναν πρόσβαση σε δεδομένα πελατών και σε ιδιόκτητες πληροφορίες επιχειρήσεων, ανέφερε το FBI. 

Τα Deepfake βίντεο έχουν επίσης χρησιμοποιηθεί για να εξαπατήσουν ζωντανό λογισμικό αναγνώρισης προσώπου, σύμφωνα με στη διαδικτυακή startup Sensity AI για την καταπολέμηση της απάτης. Οι δοκιμές του Sensity διαπίστωσαν ότι οι εννέα στις δέκα εφαρμογές πωλητών ξεκλειδώθηκαν επιτυχώς χρησιμοποιώντας ένα βίντεο που είχε τροποποιηθεί με βαθιά ψεύτικη ροή που μεταδόθηκε από ένα κινητό τηλέφωνο.

Οι φόβοι για την τεχνολογία έχουν γίνει αρκετά σοβαροί για την Ευρωπαϊκή Ένωση ψηφίζουν νόμους επιβολή προστίμων σε εταιρείες που αποτυγχάνουν να καταπολεμήσουν επαρκώς τα deepfakes και άλλες πηγές παραπληροφόρησης. Η Κίνα επίσης συνέταξε βαθιά ψεύτικοι νόμοι που απειλούν με νομική τιμωρία για κακή χρήση της τεχνολογίας, καθώς και για την απαίτηση χορήγησης άδειας για οποιαδήποτε νόμιμη χρήση των deepfakes, τα οποία η Κίνα αποκαλεί «βαθιά σύνθεση». 

Μια λύση για πόσο καιρό;

Σύμφωνα με την έκθεση του Metaphysic, ακόμη και τεχνολογία όπως αυτή της Nvidia πεδίο νευρικής ακτινοβολίας Το (NeRF), το οποίο μπορεί να δημιουργήσει μια τρισδιάστατη σκηνή από λίγες μόνο στατικές εικόνες, υποφέρει από περιορισμούς που καθιστούν δύσκολη την ανάπτυξη μιας καλής πλευρικής προβολής προφίλ. 

Τα NeRF «μπορούν, θεωρητικά, να προεκτείνουν οποιονδήποτε αριθμό γωνιών του προσώπου από λίγες μόνο φωτογραφίες. [Ωστόσο] ζητήματα σχετικά με την ανάλυση, την κινητικότητα του προσώπου και τη χρονική σταθερότητα εμποδίζουν το NeRF να παράγει τα πλούσια δεδομένα που απαιτούνται για την εκπαίδευση ενός μοντέλου αυτόματου κωδικοποιητή που μπορεί να χειριστεί καλά τις εικόνες προφίλ», έγραψε ο Άντερσον. Απευθυνθήκαμε στη Nvidia για να μάθουμε περισσότερα, αλλά δεν έχουμε ακούσει ακόμα. 

Οι αναγνώστες θα σημειώσουν ότι οι επιδείξεις του Metaphysic περιελάμβαναν μόνο πρόσωπα διασημοτήτων, από τα οποία πολλές προβολές προφίλ έχουν αποτυπωθεί σε φιλμ και φωτογραφίες. Οι μη διάσημοι ανάμεσά μας, από την άλλη, είναι απίθανο να έχουν πολλά πλάνα προφίλ στο χέρι.

«Εκτός και αν σας έχουν συλλάβει κάποια στιγμή, είναι πιθανό να μην έχετε ούτε μία τέτοια εικόνα, είτε στα μέσα κοινωνικής δικτύωσης είτε σε μια συλλογή εκτός σύνδεσης», έγραψε ο Άντερσον.

Ο Gaurav Oberoi, μηχανικός λογισμικού και ιδρυτής της startup AI Lexion, βρήκε σχεδόν το ίδιο όταν ερεύνησε τα deepfakes το 2018. ανάρτηση στο blog του, ο Oberoi εξήγησε πώς τα βαθιά ψεύτικα του κωμικού John Oliver που επιτέθηκαν σε σχέση με τον παρουσιαστή Jimmy Fallon αργά τη νύχτα λειτούργησαν καλά, αλλά όχι στο προφίλ.

«Γενικά, οι προπονητικές εικόνες του στόχου σας πρέπει να προσεγγίζουν τον προσανατολισμό, τις εκφράσεις του προσώπου και τον φωτισμό στα βίντεο στα οποία θέλετε να τις κολλήσετε», είπε ο Oberoi. "Επομένως, αν δημιουργείτε ένα εργαλείο εναλλαγής προσώπου για τον μέσο άνθρωπο, δεδομένου ότι οι περισσότερες φωτογραφίες τους θα είναι μπροστά, περιορίστε τις εναλλαγές προσώπου σε βίντεο κυρίως προς τα εμπρός."

Αυτό σημαίνει, στην πραγματικότητα, ότι οι απατεώνες που χρησιμοποιούν deepfakes σε πραγματικό χρόνο είναι απίθανο να έχουν τα απαραίτητα δεδομένα για να δημιουργήσουν μια πλευρική προβολή προφίλ που δεν αναγνωρίζεται αμέσως ως ψεύτικη (με την προϋπόθεση ότι δεν χρησιμοποιούν καλά φωτογραφημένο πρόσωπο διασημοτήτων) . 

Μέχρι να μάθουμε ότι οι deepfaker έχουν βρει έναν τρόπο να ξεπεράσουν αυτό το μειονέκτημα, είναι καλή ιδέα να υιοθετήσετε την πολιτική να ζητάτε από το άτομο στην άλλη άκρη του Zoom να σας δείξει μια πλάγια όψη του προσώπου του - διάσημο ή όχι. ®

Σφραγίδα ώρας:

Περισσότερα από Το μητρώο