Ο επόπτης προστασίας προσωπικών δεδομένων προτρέπει τις εταιρείες να εγκαταλείψουν τη συναισθηματική ανάλυση του λογισμικού AI PlatoBlockchain Data Intelligence. Κάθετη αναζήτηση. Ολα συμπεριλαμβάνονται.

Η υπηρεσία παρακολούθησης της ιδιωτικής ζωής προτρέπει τις εταιρείες να εγκαταλείψουν το λογισμικό τεχνητής νοημοσύνης για συναισθηματική ανάλυση

Οι εταιρείες θα πρέπει να το σκεφτούν δύο φορές προτού αναπτύξουν συστήματα συναισθηματικής ανάλυσης με τεχνητή νοημοσύνη επιρρεπή σε συστημικές προκαταλήψεις και άλλα προβλήματα, προειδοποίησε αυτή την εβδομάδα το Γραφείο του Επιτρόπου Πληροφοριών του Ηνωμένου Βασιλείου (ICO).

Οι οργανισμοί αντιμετωπίζουν διερεύνηση εάν πιέσουν και χρησιμοποιήσουν αυτήν την τεχνολογία κατώτερης ποιότητας που θέτει τους ανθρώπους σε κίνδυνο, πρόσθεσε ο φύλακας.

Οι αλγόριθμοι μηχανικής μάθησης που υποτίθεται ότι προβλέπουν τις διαθέσεις και τις αντιδράσεις ενός ατόμου χρησιμοποιούν την όραση υπολογιστή για να παρακολουθούν τα βλέμματα, τις κινήσεις του προσώπου και την επεξεργασία ήχου για να μετρήσουν την κλίση και το συνολικό συναίσθημα. Όπως θα μπορούσε κανείς να φανταστεί, δεν είναι απαραίτητα ακριβές ή δίκαιο, και μπορεί να υπάρχουν προβλήματα απορρήτου κατά τον χειρισμό δεδομένων για εκπαίδευση και συμπεράσματα.

Πράγματι, ο αναπληρωτής επίτροπος του ICO Stephen Bonner είπε ότι η τεχνολογία δεν είναι αλάνθαστη, οδηγώντας σε συστημική προκατάληψη, ανακρίβεια ή διακρίσεις σε βάρος συγκεκριμένων κοινωνικών ομάδων. «Οι εξελίξεις στην αγορά βιομετρικής και συναισθηματικής τεχνητής νοημοσύνης είναι ανώριμες. Μπορεί να μην λειτουργήσουν ακόμα, ή όντως ποτέ», είπε είπε σε μια δήλωση. 

«Ενώ υπάρχουν ευκαιρίες, οι κίνδυνοι είναι σήμερα μεγαλύτεροι. Στο ICO, ανησυχούμε ότι η εσφαλμένη ανάλυση δεδομένων θα μπορούσε να οδηγήσει σε υποθέσεις και κρίσεις για ένα άτομο που είναι ανακριβείς και να οδηγήσουν σε διακρίσεις», συνέχισε η δήλωσή του.

Ο Bonner σημείωσε ότι το λογισμικό συναισθηματικής ανάλυσης συνδυάζεται συχνά με βιομετρικά συστήματα, συλλέγοντας και αποθηκεύοντας ένα ευρύτερο φάσμα προσωπικών πληροφοριών πέρα ​​από τις εικόνες του προσώπου. Οι πάροχοι λογισμικού συχνά δεν είναι διαφανείς σχετικά με τον τρόπο επεξεργασίας ή αποθήκευσης αυτών των προσωπικών δεδομένων. 

«Οι μόνες βιώσιμες βιομετρικές αναπτύξεις θα είναι αυτές που είναι πλήρως λειτουργικές, υπεύθυνες και υποστηρίζονται από την επιστήμη», είπε. «Όπως έχουν τα πράγματα, δεν έχουμε δει ακόμη καμία τεχνολογία AI να αναπτύσσεται με τρόπο που να ικανοποιεί τις απαιτήσεις προστασίας δεδομένων και να έχουμε πιο γενικά ερωτήματα σχετικά με την αναλογικότητα, τη δικαιοσύνη και τη διαφάνεια σε αυτόν τον τομέα».

Κάτι που φαίνεται ευγενικός τρόπος να πούμε: θα πρέπει να χρησιμοποιείτε μόνο μοντέλα τεχνητής νοημοσύνης που διαβάζουν συναισθήματα που λειτουργούν όπως αναμένει το ICO και αυτά τα μοντέλα δεν υπάρχουν, επομένως θα πρέπει απλώς να σταματήσετε αυτό που κάνετε.

Η βρετανική υπηρεσία παρακολούθησης απορρήτου δεδομένων αναμένεται να δημοσιεύσει μια έκθεση που θα περιγράφει λεπτομερώς τον τρόπο με τον οποίο τα βιομετρικά δεδομένα, συμπεριλαμβανομένης της αναγνώρισης προσώπου, της αναγνώρισης δακτυλικών αποτυπωμάτων και της αναγνώρισης φωνής, θα πρέπει να χειρίζονται οι εταιρείες την επόμενη χρονιά την άνοιξη.

«Το ICO θα συνεχίσει να ελέγχει την αγορά, εντοπίζοντας τους ενδιαφερόμενους που επιδιώκουν να δημιουργήσουν ή να αναπτύξουν αυτές τις τεχνολογίες και εξηγώντας τη σημασία του ενισχυμένου απορρήτου και της συμμόρφωσης δεδομένων, ενθαρρύνοντας παράλληλα την εμπιστοσύνη και την εμπιστοσύνη στον τρόπο λειτουργίας αυτών των συστημάτων», πρόσθεσε ο Bonner.

Οι ειδικοί κρούουν τον κώδωνα του κινδύνου για την ανάλυση συναισθημάτων και συναισθημάτων εδώ και χρόνια. Τα συναισθήματα είναι υποκειμενικά και είναι δύσκολο να τα ερμηνεύσεις με ακρίβεια. Οι άνθρωποι συχνά δεν μπορούν να το κάνουν αυτό αποτελεσματικά για τον εαυτό τους ή τους άλλους, πόσο μάλλον για τις μηχανές. ®

Σφραγίδα ώρας:

Περισσότερα από Το μητρώο