Τα Φόρουμ Jailbreaking του ChatGPT πολλαπλασιάζονται στις κοινότητες του Dark Web

Τα Φόρουμ Jailbreaking του ChatGPT πολλαπλασιάζονται στις κοινότητες του Dark Web

Ο οπλισμός των παραγωγικών εργαλείων AI όπως το ChatGPT αυτό όλοι περίμεναν είναι σιγά σιγά, αργά αρχίζει να παίρνει μορφή. Στις διαδικτυακές κοινότητες, οι περίεργες γάτες συνεργάζονται σε νέους τρόπους για να παραβιάσουν τους κανόνες δεοντολογίας του ChatGPT, κοινώς γνωστούς ως "jailbreaking", και οι χάκερ αναπτύσσουν ένα δίκτυο νέων εργαλείων για να αξιοποιήσουν ή να δημιουργήσουν μεγάλα μοντέλα γλώσσας (LLM) για κακόβουλους σκοπούς.

Όπως και πάνω από το έδαφος, το ChatGPT φαίνεται να έχει εμπνεύσει μια φρενίτιδα στα υπόγεια φόρουμ. Από τον Δεκέμβριο, οι χάκερ βρίσκονται στο κυνήγι νέων και εφευρετικών ζητά να χειριστείτε το ChatGPT, να LLM ανοιχτού κώδικα που μπορούν να επαναχρησιμοποιήσουν για κακόβουλους σκοπούς

Το αποτέλεσμα, σύμφωνα με ένα νέο ιστολόγιο από το SlashNext, είναι μια ακόμα εκκολαπτόμενη, αλλά ακμάζουσα κοινότητα hacking LLM, που διαθέτει πολλές έξυπνες προτροπές, αλλά λίγα κακόβουλα προγράμματα με δυνατότητα AI αξίζουν μια δεύτερη σκέψη.

Τι κάνουν οι χάκερ με τα AI LLM

Άμεση μηχανική περιλαμβάνει την έξυπνη υποβολή ερωτήσεων σε chatbot, όπως το ChatGPT, με στόχο τη χειραγώγησή τους, κάνοντάς τους να παραβιάζουν τους προγραμματισμένους κανόνες τους ενάντια, ας πούμε, τη δημιουργία κακόβουλου λογισμικού, χωρίς τα μοντέλα να το γνωρίζουν. Αυτή είναι μια άσκηση ωμής βίας, εξηγεί ο Patrick Harr, Διευθύνων Σύμβουλος της SlashNext: «Οι χάκερ προσπαθούν απλώς να κοιτάξουν γύρω από τα προστατευτικά κιγκλιδώματα. Ποιες είναι οι άκρες; Απλώς αλλάζω συνεχώς τις προτροπές, του ζητώ με διαφορετικούς τρόπους να κάνω αυτό που θέλω».

Επειδή είναι τόσο κουραστικό έργο και επειδή όλοι επιτίθενται στον ίδιο στόχο, είναι φυσικό να έχουν δημιουργηθεί υγιείς διαδικτυακές κοινότητες γύρω από την πρακτική για να μοιράζονται συμβουλές και κόλπα. Τα μέλη αυτών των κοινοτήτων jailbreak γρατσουνίζουν το ένα το άλλο, βοηθώντας το ένα το άλλο να κάνει το ChatGPT να σπάσει και να κάνει πράγματα που οι προγραμματιστές σκόπευαν να το αποτρέψουν από το να κάνει.

ένα στιγμιότυπο οθόνης μιας ομάδας διαδικτυακής συνομιλίας που έχει δημιουργηθεί για προτροπή
Πηγή: SlashNext

Οι άμεσοι μηχανικοί μπορούν να επιτύχουν τόσα πολλά μόνο με το φανταχτερό παιχνίδι λέξεων, ωστόσο, εάν το εν λόγω chatbot έχει κατασκευαστεί τόσο ανθεκτικά όσο είναι το ChatGPT. Έτσι, η πιο ανησυχητική τάση είναι ότι οι προγραμματιστές κακόβουλου λογισμικού αρχίζουν να προγραμματίζουν τα LLM για τους δικούς τους, κακόβουλους σκοπούς.

Η διαφαινόμενη απειλή των WormGPT & κακόβουλων LLMs

Μια προσφορά που ονομάζεται WormGPT εμφανίστηκε τον Ιούλιο για να ξεκινήσει το κακόβουλο φαινόμενο LLM. Είναι μια εναλλακτική λύση για τα μοντέλα GPT που έχουν σχεδιαστεί ειδικά για κακόβουλες δραστηριότητες όπως BEC, κακόβουλο λογισμικό και επιθέσεις phishing, που διατίθενται στην αγορά σε υπόγεια φόρουμ «όπως το ChatGPT αλλά [χωρίς] ηθικά όρια ή περιορισμούς». Ο δημιουργός του WormGPT ισχυρίστηκε ότι το δημιούργησε σε ένα προσαρμοσμένο μοντέλο γλώσσας, εκπαιδευμένο σε διάφορες πηγές δεδομένων, με έμφαση στα δεδομένα που σχετίζονται με επιθέσεις στον κυβερνοχώρο.

«Αυτό που σημαίνει για τους χάκερ», εξηγεί ο Harr, «είναι τώρα, ας πούμε, ένας συμβιβασμός επαγγελματικού email (BEC), ή μια επίθεση phishing ή επίθεση κακόβουλου λογισμικού, και να το κάνω σε κλίμακα με πολύ ελάχιστο κόστος. Και θα μπορούσα να είμαι πολύ πιο στοχευμένος από πριν».

Από το WormGPT, ένας αριθμός παρόμοιων προϊόντων έχει κυκλοφορήσει σε σκοτεινές διαδικτυακές κοινότητες, συμπεριλαμβανομένου του FraudGPT, το οποίο διαφημίζεται ως «ρομπότ χωρίς περιορισμούς, κανόνες [και] όρια» από έναν παράγοντα απειλών που ισχυρίζεται ότι είναι επαληθευμένος προμηθευτής σε διάφορες υπόγειες αγορές του Dark Web, συμπεριλαμβανομένων των Empire, WHM, Torrez, World, AlphaBay και Versus. Και ο Αύγουστος έφερε την εμφάνιση του Κυβερνοεγκληματικά chatbots DarkBART και DarkBERT, με βάση το Google Bard, το οποίο τότε οι ερευνητές είπαν ότι αντιπροσωπεύει ένα σημαντικό άλμα μπροστά για την αντίπαλη τεχνητή νοημοσύνη, συμπεριλαμβανομένης της ενσωμάτωσης του Google Lens για εικόνες και της άμεσης πρόσβασης σε ολόκληρη τη βάση γνώσεων στον κυβερνοχώρο.

Σύμφωνα με το SlashNext, αυτά πολλαπλασιάζονται τώρα, με την πλειοψηφία τους να βασίζονται σε μοντέλα ανοιχτού κώδικα όπως το OpenGPT του OpenAI. Ένα πλήθος χακερών χαμηλών δεξιοτήτων απλώς το προσαρμόζουν, το μεταμφιέζουν σε ένα περιτύλιγμα και στη συνέχεια πληκτρολογούν ένα αόριστα δυσοίωνο όνομα «___GPT» (π.χ. «BadGPT», «DarkGPT»). Ωστόσο, ακόμη και αυτές οι προσφορές ersatz έχουν τη θέση τους στην κοινότητα, προσφέροντας λίγους περιορισμούς και πλήρη ανωνυμία για τους χρήστες.

Άμυνα ενάντια στα κυβερνοόπλα AI επόμενης γενιάς

Ούτε το WormGPT, ούτε οι απόγονοί του, ούτε οι άμεσοι μηχανικοί, δεν παρουσιάζουν ακόμη τόσο σημαντικό κίνδυνο για τις επιχειρήσεις, σύμφωνα με το SlashNext. Ακόμα κι έτσι, η άνοδος των υπόγειων αγορών jailbreaking σημαίνει ότι περισσότερα εργαλεία γίνονται διαθέσιμα στους εγκληματίες του κυβερνοχώρου, κάτι που με τη σειρά του προμηνύει μια ευρεία αλλαγή στην κοινωνική μηχανική και τον τρόπο με τον οποίο αμυνόμαστε εναντίον της. 

Ο Harr συμβουλεύει: «Μην βασίζεστε στην εκπαίδευση, γιατί αυτές οι επιθέσεις είναι πολύ, πολύ συγκεκριμένες και πολύ στοχευμένες, πολύ περισσότερο από ό, τι ήταν στο παρελθόν».

Αντίθετα, συμφωνεί με τη γενικά αποδεκτή άποψη ότι οι απειλές τεχνητής νοημοσύνης απαιτούν προστασία τεχνητής νοημοσύνης. «Αν δεν έχετε εργαλεία τεχνητής νοημοσύνης που ανιχνεύουν και προβλέπουν και μπλοκάρουν αυτές τις απειλές, θα κοιτάξετε έξω», λέει.

Σφραγίδα ώρας:

Περισσότερα από Σκοτεινή ανάγνωση