Μη επιδιορθωμένα κρίσιμα τρωτά σημεία Ανοίξτε τα μοντέλα AI στην εξαγορά

Μη επιδιορθωμένα κρίσιμα τρωτά σημεία Ανοίξτε τα μοντέλα AI στην εξαγορά

Μη επιδιορθωμένα κρίσιμα τρωτά σημεία Ανοίξτε μοντέλα τεχνητής νοημοσύνης στην εξαγορά της PlatoBlockchain Data Intelligence. Κάθετη αναζήτηση. Ολα συμπεριλαμβάνονται.

Οι ερευνητές έχουν εντοπίσει σχεδόν δώδεκα κρίσιμα τρωτά σημεία στην υποδομή που χρησιμοποιούν τα μοντέλα τεχνητής νοημοσύνης (συν τρία σφάλματα υψηλής και δύο μεσαίας σοβαρότητας), τα οποία θα μπορούσαν να θέσουν σε κίνδυνο τις εταιρείες καθώς αγωνίζονται να επωφεληθούν από την τεχνητή νοημοσύνη. Κάποια από αυτά παραμένουν ακατέργαστα.

Οι πλατφόρμες που επηρεάζονται χρησιμοποιούνται για τη φιλοξενία, την ανάπτυξη και την κοινή χρήση μοντέλων μεγάλων γλωσσών (LLM) και άλλων πλατφορμών ML και AI. Περιλαμβάνουν το Ray, που χρησιμοποιείται στην κατανεμημένη εκπαίδευση μοντέλων μηχανικής μάθησης. MLflow, μια πλατφόρμα κύκλου ζωής μηχανικής μάθησης. ModelDB, μια πλατφόρμα διαχείρισης μηχανικής μάθησης. και H20 έκδοση 3, μια πλατφόρμα ανοιχτού κώδικα για μηχανική εκμάθηση βασισμένη σε Java.

MΗ εταιρεία ασφάλειας achine-learning Protect AI αποκάλυψε τα αποτελέσματα στις 16 Νοεμβρίου ως μέρος του προγράμματος σφαλμάτων τεχνητής νοημοσύνης Huntr. Δεν είναιενημέρωσε τους συντηρητές λογισμικού και τους προμηθευτές σχετικά με τα τρωτά σημεία, δίνοντάς τους 45 ημέρες για να επιδιορθώσουν τα ζητήματα.

Σε κάθε ένα από τα ζητήματα έχει εκχωρηθεί ένα αναγνωριστικό CVE και ενώ πολλά από τα ζητήματα έχουν επιδιορθωθεί, άλλα παραμένουν χωρίς επιδιόρθωση, οπότε το Protect AI συνέστησε μια λύση στο συμβουλευτικό του.

Τα σφάλματα AI παρουσιάζουν υψηλό κίνδυνο στους οργανισμούς

Σύμφωνα με το Protect AI, οι ευπάθειες στα συστήματα τεχνητής νοημοσύνης μπορούν να δώσουν στους εισβολείς μη εξουσιοδοτημένη πρόσβαση στα μοντέλα AI, επιτρέποντάς τους να επιλέξουν τα μοντέλα για τους δικούς τους στόχους.

Αλλά, μπορούν επίσης να τους δώσουν μια πόρτα στο υπόλοιπο δίκτυο, λέει ο Sean Morgan, επικεφαλής αρχιτέκτονας στο Protect AI. Ο παραβιασμός διακομιστή και η κλοπή διαπιστευτηρίων από υπηρεσίες τεχνητής νοημοσύνης χαμηλού κώδικα είναι δύο δυνατότητες για αρχική πρόσβαση, για παράδειγμα.

«Οι διακομιστές συμπερασμάτων μπορούν να έχουν προσβάσιμα τελικά σημεία για να μπορούν οι χρήστες να χρησιμοποιούν μοντέλα ML [από απόσταση], αλλά υπάρχουν πολλοί τρόποι για να μπεις στο δίκτυο κάποιου», λέει. «Αυτά τα συστήματα ML που στοχεύουμε [με το πρόγραμμα bug-bounty] έχουν συχνά αυξημένα προνόμια, και γι' αυτό είναι πολύ σημαντικό εάν κάποιος μπορεί να μπει στο δίκτυό σας, να μην μπορεί γρήγορα το προνόμιο να κλιμακωθεί σε ένα πολύ ευαίσθητο σύστημα .»

Για παράδειγμα, ένα κρίσιμο τοπικό ζήτημα συμπερίληψης αρχείων (τώρα διορθώθηκε) στο API για την κατανεμημένη πλατφόρμα εκμάθησης Ray επιτρέπει σε έναν εισβολέα να διαβάσει οποιοδήποτε αρχείο στο σύστημα. Ένα άλλο πρόβλημα στην πλατφόρμα H20 (επίσης διορθώθηκε) επιτρέπει την εκτέλεση κώδικα μέσω της εισαγωγής ενός μοντέλου AI.

Ο κίνδυνος δεν είναι θεωρητικός: μεγάλες εταιρείες έχουν ήδη ξεκινήσει επιθετικές εκστρατείες για να βρουν χρήσιμα μοντέλα τεχνητής νοημοσύνης και να τα εφαρμόσουν στις αγορές και τις δραστηριότητές τους. Οι τράπεζες χρησιμοποιούν ήδη τη μηχανική μάθηση και την τεχνητή νοημοσύνη για την επεξεργασία των στεγαστικών δανείων και την καταπολέμηση του ξεπλύματος χρήματος, για παράδειγμα.

Κατά την εύρεση τρωτά σημεία σε αυτά τα συστήματα τεχνητής νοημοσύνης μπορεί να οδηγήσει σε συμβιβασμό της υποδομής, η κλοπή της πνευματικής ιδιοκτησίας είναι επίσης ένας μεγάλος στόχος, λέει ο Daryan Dehghanpisheh, πρόεδρος και συνιδρυτής του Protect AI.

«Η βιομηχανική κατασκοπεία είναι ένα μεγάλο συστατικό και στη μάχη για την τεχνητή νοημοσύνη και την ML, τα μοντέλα είναι ένα πολύτιμο περιουσιακό στοιχείο πνευματικής ιδιοκτησίας», λέει. "Σκεφτείτε πόσα χρήματα δαπανώνται για την εκπαίδευση ενός μοντέλου σε καθημερινή βάση και όταν μιλάτε για ένα δισεκατομμύριο παραμέτρους και περισσότερες, τόσο πολλές επενδύσεις, απλώς καθαρό κεφάλαιο που εύκολα διακυβεύεται ή κλέβεται."

Η καταπολέμηση νέων εκμεταλλεύσεων ενάντια στην υποδομή που στηρίζει τις αλληλεπιδράσεις φυσικής γλώσσας που έχουν οι άνθρωποι με συστήματα τεχνητής νοημοσύνης όπως το ChatGPT θα έχει ακόμη μεγαλύτερη επίδραση, λέει ο Dane Sherrets, ανώτερος αρχιτέκτονας λύσεων στο HackerOne. Αυτό συμβαίνει επειδή όταν οι εγκληματίες του κυβερνοχώρου είναι σε θέση να ενεργοποιήσουν αυτού του είδους τις ευπάθειες, η αποτελεσματικότητα των συστημάτων τεχνητής νοημοσύνης θα κάνει τον αντίκτυπο πολύ μεγαλύτερο.

Αυτές οι επιθέσεις «μπορεί να προκαλέσουν το σύστημα να ξεδιπλώσει ευαίσθητα ή εμπιστευτικά δεδομένα ή να βοηθήσουν τον κακόβουλο παράγοντα να αποκτήσει πρόσβαση στο backend του συστήματος», λέει. «Τα τρωτά σημεία της τεχνητής νοημοσύνης, όπως η δηλητηρίαση δεδομένων εκπαίδευσης, μπορούν επίσης να έχουν σημαντικό κυματισμό, οδηγώντας σε ευρεία διάδοση εσφαλμένων ή κακόβουλων αποτελεσμάτων».

Ασφάλεια για την υποδομή AI: Συχνά παραβλέπεται

Μετά την εισαγωγή του ChatGPT πριν από ένα χρόνο, οι τεχνολογίες και οι υπηρεσίες που βασίζονται στην τεχνητή νοημοσύνη — ειδικά το γενετικό AI (GenAI) — έχουν απογειωθεί. Στον απόηχο του, α ποικιλία αντιπάλων επιθέσεων έχουν αναπτυχθεί που μπορούν να στοχεύουν συστήματα τεχνητής νοημοσύνης και μηχανικής μάθησης και τις λειτουργίες τους. Στις 15 Νοεμβρίου, για παράδειγμα, η εταιρεία ασφαλείας AI Adversa AI
αποκάλυψε έναν αριθμό επιθέσεων σε συστήματα που βασίζονται σε GPT συμπεριλαμβανομένης της άμεσης διαρροής και της απαρίθμησης των API στα οποία έχει πρόσβαση το σύστημα.

Ωστόσο, οι αποκαλύψεις σφαλμάτων του ProtectAI υπογραμμίζουν το γεγονός ότι τα εργαλεία και η υποδομή που υποστηρίζουν διαδικασίες μηχανικής μάθησης και λειτουργίες τεχνητής νοημοσύνης μπορούν επίσης να γίνουν στόχοι. Και συχνά, οι επιχειρήσεις έχουν υιοθετήσει εργαλεία και ροές εργασίας που βασίζονται σε AI χωρίς συχνά να συμβουλεύονται ομάδες ασφάλειας πληροφοριών.

«Όπως συμβαίνει με κάθε κύκλο διαφημιστικής εκστρατείας υψηλής τεχνολογίας, οι άνθρωποι θα αναπτύξουν συστήματα, θα δημοσιεύσουν εφαρμογές και θα δημιουργήσουν νέες εμπειρίες για να ανταποκριθούν στις ανάγκες της επιχείρησης και της αγοράς, και συχνά είτε παραμελούν την ασφάλεια και δημιουργούν αυτά είδη «στοίβων σκιάς» ή θα υποθέσουν ότι οι υπάρχουσες δυνατότητες ασφαλείας που διαθέτουν μπορούν να τους κρατήσουν ασφαλείς», λέει ο Dehghanpisheh. «Αλλά τα πράγματα που κάνουμε εμείς [οι επαγγελματίες της κυβερνοασφάλειας] για τα παραδοσιακά κέντρα δεδομένων, δεν σας κρατούν απαραίτητα ασφαλείς στο cloud και το αντίστροφο».

Η Protect AI χρησιμοποίησε την πλατφόρμα επιβράβευσης σφαλμάτων, που ονομάστηκε Huntr, για να ζητήσει υποβολές ευπάθειας από χιλιάδες ερευνητές για διαφορετικές πλατφόρμες μηχανικής μάθησης, αλλά μέχρι στιγμής, το κυνήγι σφαλμάτων σε αυτόν τον τομέα παραμένει στα σπάργανα. Αυτό θα μπορούσε να αλλάξει, όμως.

Για παράδειγμα, το Zero Day Initiative της Trend Micro δεν έχει δει ακόμη σημαντική ζήτηση για εύρεση σφαλμάτων στα εργαλεία AI/ML, αλλά η ομάδα έχει δει τακτικές αλλαγές στους τύπους τρωτών σημείων που θέλει η βιομηχανία να βρουν οι ερευνητές και πιθανότατα θα εστιαστεί στην τεχνητή νοημοσύνη σύντομα, λέει ο Dustin Childs, Επικεφαλής Ενημέρωσης Απειλών στο Zero Day Initiative της Trend Micro.

«Βλέπουμε το ίδιο πράγμα στην τεχνητή νοημοσύνη που είδαμε σε άλλες βιομηχανίες καθώς αναπτύχθηκαν», λέει. «Στην αρχή, η ασφάλεια στερήθηκε προτεραιότητας υπέρ της προσθήκης λειτουργικότητας. Τώρα που έχει φτάσει σε ένα ορισμένο επίπεδο αποδοχής, οι άνθρωποι αρχίζουν να ρωτούν για τις επιπτώσεις στην ασφάλεια».

Σφραγίδα ώρας:

Περισσότερα από Σκοτεινή ανάγνωση