Η Intel λέει ότι μπορεί να ταξινομήσει τα ζωντανά ανθρώπινα όντα από τα deepfakes σε πραγματικό χρόνο PlatoBlockchain Data Intelligence. Κάθετη αναζήτηση. Ολα συμπεριλαμβάνονται.

Η Intel λέει ότι μπορεί να ταξινομήσει τα ζωντανά ανθρώπινα όντα από τα deepfakes σε πραγματικό χρόνο

Η Intel ισχυρίζεται ότι έχει αναπτύξει ένα μοντέλο τεχνητής νοημοσύνης που μπορεί να ανιχνεύσει σε πραγματικό χρόνο εάν ένα βίντεο χρησιμοποιεί τεχνολογία deepfake αναζητώντας ανεπαίσθητες αλλαγές στο χρώμα που θα ήταν εμφανείς αν το θέμα ήταν ζωντανός άνθρωπος.

Το FakeCatcher ισχυρίζεται από τον γίγαντα της κατασκευής τσιπ ότι μπορεί να επιστρέφει αποτελέσματα σε χιλιοστά του δευτερολέπτου και ότι έχει ποσοστό ακρίβειας 96 τοις εκατό.

Υπήρξε ανησυχία τα τελευταία χρόνια για τα λεγόμενα deepfake βίντεο, τα οποία χρησιμοποιούν αλγόριθμους τεχνητής νοημοσύνης για να δημιουργήσουν πλαστά πλάνα ανθρώπων. Η κύρια ανησυχία έχει επικεντρωθεί στο ότι μπορεί να χρησιμοποιηθεί για να κάνει πολιτικούς ή διασημότητες να φαίνεται ότι εκφράζουν δηλώσεις ή κάνουν πράγματα που στην πραγματικότητα δεν είπαν ή έκαναν.

«Τα Deepfake βίντεο είναι παντού τώρα. Μάλλον τα έχετε ήδη δει. βίντεο με διασημότητες που κάνουν ή λένε πράγματα που στην πραγματικότητα δεν έκαναν ποτέ», δήλωσε ο ερευνητής της Intel Labs, Ilke Demir. Και δεν επηρεάζει μόνο διασημότητες απλούς πολίτες υπήρξαν θύματα.

Σύμφωνα με τον κατασκευαστή τσιπ, ορισμένοι ανιχνευτές που βασίζονται σε βαθιά μάθηση αναλύουν τα ακατέργαστα δεδομένα βίντεο για να προσπαθήσουν να βρουν ενδεικτικές ενδείξεις που θα το προσδιορίσουν ως ψεύτικο. Αντίθετα, το FakeCatcher ακολουθεί μια διαφορετική προσέγγιση, που περιλαμβάνει την ανάλυση πραγματικών βίντεο για οπτικές ενδείξεις που υποδεικνύουν ότι το θέμα είναι πραγματικό.

Αυτό περιλαμβάνει ανεπαίσθητες αλλαγές στο χρώμα στα pixel ενός βίντεο λόγω της ροής αίματος από την καρδιά που αντλεί αίμα σε όλο το σώμα. Αυτά τα σήματα ροής αίματος συλλέγονται από όλο το πρόσωπο και οι αλγόριθμοι τα μεταφράζουν σε χωροχρονικούς χάρτες, είπε η Intel, επιτρέποντας σε ένα μοντέλο βαθιάς μάθησης να ανιχνεύσει εάν ένα βίντεο είναι πραγματικό ή όχι. Ορισμένα εργαλεία ανίχνευσης απαιτούν τη μεταφόρτωση περιεχομένου βίντεο για ανάλυση και, στη συνέχεια, την αναμονή για ώρες για τα αποτελέσματα, ισχυρίστηκε.

Ωστόσο, δεν είναι πέρα ​​από τη σφαίρα της δυνατότητας να φανταστεί κανείς ότι οποιοσδήποτε με τα κίνητρα να δημιουργήσει ψεύτικα βίντεο μπορεί να είναι σε θέση να αναπτύξει αλγόριθμους που μπορούν να ξεγελάσουν τον FakeCatcher, με αρκετό χρόνο και πόρους.

Η Intel έχει φυσικά κάνει αρκετά εκτεταμένη χρήση των δικών της τεχνολογιών για την ανάπτυξη του FakeCatcher, συμπεριλαμβανομένου του OpenVINO toolkit για τη βελτιστοποίηση μοντέλων βαθιάς εκμάθησης και του OpenCV για την επεξεργασία εικόνων και βίντεο σε πραγματικό χρόνο. Οι ομάδες προγραμματιστών χρησιμοποίησαν επίσης την πλατφόρμα Open Visual Cloud για να παρέχουν μια ολοκληρωμένη στοίβα λογισμικού για επεξεργαστές Xeon Scalable της Intel. Το λογισμικό FakeCatcher μπορεί να τρέξει έως και 72 διαφορετικές ροές ανίχνευσης ταυτόχρονα σε επεξεργαστές Xeon Scalable 3ης γενιάς.

Σύμφωνα με την Intel, υπάρχουν πολλές πιθανές περιπτώσεις χρήσης του FakeCatcher, συμπεριλαμβανομένης της αποτροπής των χρηστών από το ανέβασμα επιβλαβών βίντεο βαθιάς ψευδούς στα μέσα κοινωνικής δικτύωσης και της βοήθειας των ειδησεογραφικών οργανισμών να αποφύγουν τη μετάδοση παραποιημένου περιεχομένου. ®

Σφραγίδα ώρας:

Περισσότερα από Το μητρώο