Ο νόμος της ΕΕ για την τεχνητή νοημοσύνη - Ποιες είναι οι επιπτώσεις για τις τράπεζες και τη χρηματοοικονομική τεχνολογία;

Ο νόμος της ΕΕ για την τεχνητή νοημοσύνη – Ποιες είναι οι επιπτώσεις για τις τράπεζες και τη χρηματοοικονομική τεχνολογία;

Ο νόμος της ΕΕ για την τεχνητή νοημοσύνη - Ποιες είναι οι επιπτώσεις για τις τράπεζες και τη χρηματοοικονομική τεχνολογία; Ευφυΐα Δεδομένων PlatoBlockchain. Κάθετη αναζήτηση. Ολα συμπεριλαμβάνονται.

Η χθεσινή τελική ψηφοφορία του Ευρωπαϊκού Κοινοβουλίου σχετικά με τον νόμο για την τεχνητή νοημοσύνη, η οποία θα τεθεί σε ισχύ τον Μάιο, προαναγγέλλει την πιο ολοκληρωμένη νομοθεσία για την τεχνητή νοημοσύνη στον κόσμο. Όπως και ο GDPR, θα έχει παγκόσμιες επιπτώσεις πέρα ​​από την ΕΕ.

Ο νόμος AI παρέχει ένα ολοκληρωμένο πλαίσιο για τη διασφάλιση της ανάπτυξης αξιόπιστης τεχνητής νοημοσύνης και της υπεύθυνης χρήσης εργαλείων τεχνητής νοημοσύνης, ιδίως της διαφάνειας, της μεροληψίας, των παραβιάσεων της ιδιωτικής ζωής, των κινδύνων ασφαλείας και της πιθανότητας διάδοσης παραπληροφόρησης.
ως ανθρώπινη εποπτεία στην ανάπτυξη τεχνολογιών τεχνητής νοημοσύνης. 

Σε αυτές τις κατευθυντήριες γραμμές, χρησιμοποιούνται επτά μη δεσμευτικές ηθικές αρχές για την τεχνητή νοημοσύνη, με σκοπό να διασφαλιστεί ότι η τεχνητή νοημοσύνη είναι αξιόπιστη και ηθικά ορθή. Οι αρχές περιλαμβάνουν

– ανθρώπινη δράση και επίβλεψη·

– τεχνική ευρωστία και ασφάλεια·

– Διακυβέρνηση απορρήτου και δεδομένων·

– διαφάνεια·

– ποικιλομορφία, μη διάκριση και δικαιοσύνη·

– κοινωνική και περιβαλλοντική ευημερία και υπευθυνότητα.

Με μια κλιμακωτή προσέγγιση βασισμένη στον κίνδυνο, τα συστήματα τεχνητής νοημοσύνης υψηλού κινδύνου σε τομείς όπως ο τραπεζικός τομέας και η υγειονομική περίθαλψη θα αντιμετωπίσουν αυστηρές νομικές υποχρεώσεις και σημαντικές κυρώσεις για μη συμμόρφωση. Ο νόμος κατηγοριοποιεί την τεχνητή νοημοσύνη σε τέσσερις βαθμίδες κινδύνου, από ελάχιστο έως απαράδεκτο, το καθένα
με κλιμακούμενες υποχρεώσεις.

Ο νόμος της ΕΕ για την τεχνητή νοημοσύνη απαγορεύει την ανάπτυξη, ανάπτυξη και χρήση ορισμένων συστημάτων τεχνητής νοημοσύνης, συμπεριλαμβανομένων:

– Κοινωνικά συστήματα βαθμολόγησης

- Κοινωνική μηχανική

– Απομακρυσμένη βιομετρική αναγνώριση σε πραγματικό χρόνο σε δημόσιους χώρους

– Προφίλ και πρόβλεψη συμπεριφοράς βάσει AI

– Απόξεση και αύξηση εικόνων προσώπου για επέκταση βάσεων δεδομένων

– Οι τεχνικές χειραγώγησης που βασίζονται στην τεχνητή νοημοσύνη υπονομεύουν την αυτονομία και την ελεύθερη επιλογή 

Δεν ενέχουν όλα τα συστήματα τεχνητής νοημοσύνης σημαντικούς κινδύνους, ειδικά εάν δεν επηρεάζουν ουσιωδώς τη λήψη αποφάσεων ή δεν βλάπτουν ουσιαστικά προστατευόμενα έννομα συμφέροντα. Συστήματα τεχνητής νοημοσύνης με ελάχιστο αντίκτυπο στη λήψη αποφάσεων ή κίνδυνο για έννομα συμφέροντα, όπως αυτά που λειτουργούν
Τα στενά καθήκοντα ή η ενίσχυση των ανθρώπινων δραστηριοτήτων θεωρούνται χαμηλού κινδύνου. Η τεκμηρίωση και η εγγραφή για αυτά τα συστήματα δίνεται έμφαση για διαφάνεια. Μερικά από τα συστήματα τεχνητής νοημοσύνης υψηλού κινδύνου περιλαμβάνουν διάφορους τομείς, συμπεριλαμβανομένων των τραπεζικών και ασφαλιστικών (καθώς και ιατρικών
συσκευές, HR, εκπαίδευση και άλλα).

Οι υποχρεωτικές απαιτήσεις για συστήματα τεχνητής νοημοσύνης υψηλού κινδύνου στοχεύουν στη διασφάλιση της αξιοπιστίας και τον μετριασμό των κινδύνων, λαμβάνοντας υπόψη τον σκοπό και το πλαίσιο χρήσης τους. Είναι σημαντικό για τις χρηματοοικονομικές υπηρεσίες και τις εταιρείες χρηματοοικονομικής τεχνολογίας, ειδικά εκείνες που ασχολούνται με δεδομένα πελατών, να διατηρούν το
παρακάτω, λάβετε υπόψη αυτές τις απαιτήσεις για συστήματα τεχνητής νοημοσύνης υψηλού κινδύνου:

– Συνεχής, επαναληπτική διαχείριση κινδύνου για τεχνητή νοημοσύνη υψηλού κινδύνου, με επίκεντρο την υγεία, την ασφάλεια και τα δικαιώματα, που απαιτεί ενημερώσεις, τεκμηρίωση και εμπλοκή των ενδιαφερομένων.

– Διεξαγωγή εκτίμησης επιπτώσεων στα θεμελιώδη δικαιώματα

– αυστηρή διακυβέρνηση για την αποφυγή διακρίσεων και τη διασφάλιση της συμμόρφωσης με τους νόμους περί προστασίας δεδομένων

– Τα σύνολα δεδομένων εκπαίδευσης και δοκιμών πρέπει να είναι αντιπροσωπευτικά, ακριβή και χωρίς προκαταλήψεις για την πρόληψη δυσμενών επιπτώσεων στην υγεία, την ασφάλεια και τα θεμελιώδη δικαιώματα

– Διασφάλιση ανθρώπινης εποπτείας και διαφάνειας

– Διασφάλιση εντοπισμού και διόρθωσης μεροληψίας

– κατανοητή τεκμηρίωση για ιχνηλασιμότητα, επαλήθευση συμμόρφωσης, λειτουργική παρακολούθηση και εποπτεία μετά τη διάθεση στην αγορά, συμπεριλαμβανομένων των χαρακτηριστικών του συστήματος, των αλγορίθμων, των διαδικασιών δεδομένων και της διαχείρισης κινδύνου σε σαφή, ενημερωμένα τεχνικά έγγραφα, συν
αυτόματη καταγραφή συμβάντων καθ' όλη τη διάρκεια ζωής του AI.

– Τα συστήματα τεχνητής νοημοσύνης υψηλού κινδύνου θα πρέπει να αποδίδουν με συνέπεια σε όλη τη διάρκεια του κύκλου ζωής τους και να πληρούν ένα κατάλληλο επίπεδο ακρίβειας, ευρωστίας και ασφάλειας στον κυβερνοχώρο

Οι επιχειρήσεις πρέπει να δώσουν προτεραιότητα στην ανάπτυξη Υπεύθυνης τεχνητής νοημοσύνης για να συμμορφωθούν με τους πρόσφατους κανονισμούς και να αποτρέψουν βαριές κυρώσεις για μη συμμόρφωση. Αυτά είναι μερικά από τα βήματα με τα οποία πρέπει να ξεκινήσει η εταιρεία για να διασφαλίσει τη συμμόρφωση:

  1. Καθιέρωση διακυβέρνησης AI από νωρίς, διασφαλίζοντας τη συμμετοχή και τη συμμετοχή των ενδιαφερομένων
  2. Εκπαιδεύστε και εκπαιδεύστε την ομάδα σας στις ηθικές αρχές της AI. Η διαχείριση των κινδύνων της τεχνητής νοημοσύνης θα απαιτήσει νέες δεξιότητες, που κυμαίνονται από ανάλυση δεδομένων έως ασφάλεια/απόρρητο, νομικά και πολλά άλλα.
  3. Πραγματοποιήστε έλεγχο AI του οργανισμού (και όχι μόνο της μηχανικής), αλλά νομικών, ανθρώπινου δυναμικού κ.λπ. για να αποκτήσετε μια πλήρη εικόνα για το πού χρησιμοποιείται η τεχνητή νοημοσύνη στον οργανισμό
  4. Ελέγξτε τη συνεχή συμμόρφωση
  5. Βεβαιωθείτε ότι οι πάροχοι SaaS σας χρησιμοποιούν την τεχνητή νοημοσύνη υπεύθυνα
  6. Εξασφαλίστε τη διαφάνεια, την κατανόηση και την επεξήγηση των μοντέλων που χρησιμοποιούνται στην επιχείρησή σας

Ενώ ένα πολύ απαραίτητο βήμα προς τη σωστή κατεύθυνση, ο διάβολος βρίσκεται στις λεπτομέρειες και ο νόμος για την τεχνητή νοημοσύνη θα έχει ουσιαστικό αντίκτυπο στο μέλλον των οργανισμών, τόσο των παραδοσιακών όσο και των επικεντρωμένων στην τεχνητή νοημοσύνη. Καθώς πλοηγούμαστε σε μια εποχή όπου ο αντίκτυπος της τεχνητής νοημοσύνης είναι ολοένα και μεγαλύτερος
βαθιά, η ευθυγράμμιση με τα ηθικά πρότυπα και τις κανονιστικές απαιτήσεις δεν είναι απλώς θέμα νομικής συμμόρφωσης αλλά στρατηγική επιταγή. Εστιάζοντας στο Responsible AI, οι επιχειρήσεις όχι μόνο προστατεύονται από σημαντικά πρόστιμα αλλά και τοποθετούνται
ως αξιόπιστες και προνοητικές οντότητες στο ταχέως εξελισσόμενο ψηφιακό τοπίο. Το ταξίδι προς το Responsible AI είναι ένα δύσκολο αλλά απαραίτητο μονοπάτι που υπόσχεται να επαναπροσδιορίσει το μέλλον της τεχνολογίας, της διακυβέρνησης και της κοινωνικής ευημερίας.

Σφραγίδα ώρας:

Περισσότερα από Fintextra