Οι εταιρείες βασίζονται σε πολλαπλές μεθόδους για την ασφάλεια των εργαλείων δημιουργίας τεχνητής νοημοσύνης

Οι εταιρείες βασίζονται σε πολλαπλές μεθόδους για την ασφάλεια των εργαλείων δημιουργίας τεχνητής νοημοσύνης

Οι εταιρείες βασίζονται σε πολλαπλές μεθόδους για την ασφάλεια των εργαλείων παραγωγής τεχνητής νοημοσύνης PlatoBlockchain Data Intelligence. Κάθετη αναζήτηση. Ολα συμπεριλαμβάνονται.

Καθώς περισσότεροι οργανισμοί υιοθετούν τεχνολογίες τεχνητής νοημοσύνης που δημιουργούνται — για να δημιουργήσουν θέσεις, να συμπληρώσουν αιτήσεις επιχορήγησης και να γράψουν κωδικός λέβητα — οι ομάδες ασφαλείας συνειδητοποιούν την ανάγκη να απαντήσουν σε μια νέα ερώτηση: Πώς προστατεύετε τα εργαλεία τεχνητής νοημοσύνης;

Το ένα τρίτο των ερωτηθέντων σε μια πρόσφατη έρευνα από τη Gartner ανέφερε είτε χρήση ή εφαρμογή εργαλείων ασφαλείας εφαρμογών που βασίζονται σε AI για την αντιμετώπιση των κινδύνων που εγκυμονεί η χρήση γενετικής τεχνητής νοημοσύνης στον οργανισμό τους.

Οι τεχνολογίες ενίσχυσης της ιδιωτικής ζωής (PETs) έδειξαν τη μεγαλύτερη τρέχουσα χρήση, στο 7% των ερωτηθέντων, με ένα σταθερό 19% των εταιρειών που το εφαρμόζουν. αυτή η κατηγορία περιλαμβάνει τρόπους προστασίας των προσωπικών δεδομένων, όπως π.χ ομομορφική κρυπτογράφηση, Συνθετικά δεδομένα που δημιουργούνται από AI, ασφαλής πολυμερής υπολογισμός, ομοσπονδιακή μάθηση, να διαφορετική ιδιωτικότητα. Ωστόσο, ένα σταθερό 17% δεν έχει σχέδια να ωθήσει τα PET στο περιβάλλον τους.

Μόνο το 19% χρησιμοποιεί ή εφαρμόζει εργαλεία για την επεξήγηση του μοντέλου, αλλά υπάρχει σημαντικό ενδιαφέρον (56%) μεταξύ των ερωτηθέντων για την εξερεύνηση και κατανόηση αυτών των εργαλείων για την αντιμετώπιση του παραγωγικού κινδύνου AI. Η επεξήγηση, η παρακολούθηση μοντέλων και τα εργαλεία ασφαλείας εφαρμογών τεχνητής νοημοσύνης μπορούν όλα να χρησιμοποιηθούν σε μοντέλα ανοιχτού κώδικα ή ιδιόκτητα για την επίτευξη αξιοπιστίας και αξιοπιστίας που χρειάζονται οι εταιρικοί χρήστες, σύμφωνα με την Gartner.

Οι κίνδυνοι για τους οποίους ανησυχούν περισσότερο οι ερωτηθέντες περιλαμβάνουν λανθασμένα ή μεροληπτικά αποτελέσματα (58%) και τρωτά σημεία ή μυστικά που διέρρευσαν σε κώδικα που δημιουργείται από AI (57%). Είναι σημαντικό ότι το 43% ανέφερε πιθανά ζητήματα πνευματικών δικαιωμάτων ή αδειοδότησης που προκύπτουν από περιεχόμενο που δημιουργείται από AI ως κορυφαίους κινδύνους για τον οργανισμό τους.

«Δεν υπάρχει ακόμη διαφάνεια σχετικά με τα μοντέλα δεδομένων στα οποία εκπαιδεύονται, επομένως ο κίνδυνος που σχετίζεται με την προκατάληψη και το απόρρητο είναι πολύ δύσκολο να κατανοηθεί και να εκτιμηθεί», έγραψε στέλεχος της C-suite απαντώντας στην έρευνα της Gartner.

Τον Ιούνιο, το Εθνικό Ινστιτούτο Προτύπων και Τεχνολογίας (NIST) δημιούργησε μια δημόσια ομάδα εργασίας για να βοηθήσει στην αντιμετώπιση αυτού του ζητήματος, με βάση το Πλαίσιο Διαχείρισης Κινδύνων AI από τον Ιανουάριο. Όπως δείχνουν τα στοιχεία της Gartner, οι εταιρείες δεν περιμένουν για τις οδηγίες NIST.

Σφραγίδα ώρας:

Περισσότερα από Σκοτεινή ανάγνωση