Οι χάκερ πουλούν περισσότερους από 225,000 λογαριασμούς ChatGPT στο Dark Web

Οι χάκερ πουλούν περισσότερους από 225,000 λογαριασμούς ChatGPT στο Dark Web

Πένκα Χριστόφσκα


Πένκα Χριστόφσκα

Δημοσιεύθηκε στις: Μαρτίου 7, 2024

Περισσότερες από 25,000 εγγραφές παραβιασμένων διαπιστευτηρίων OpenAI ChatGPT εμφανίστηκαν προς πώληση στον σκοτεινό ιστό μεταξύ Ιανουαρίου και Οκτωβρίου 2023, σύμφωνα με αριθμούς από το Group-IB.

Η ομάδα εξήγησε στην έκθεσή της «Hi-Tech Crime Trends 2023/2024», που κυκλοφόρησε την περασμένη εβδομάδα, ότι «ο αριθμός των μολυσμένων συσκευών μειώθηκε ελαφρώς στα μέσα και στα τέλη του καλοκαιριού, αλλά αυξήθηκε σημαντικά μεταξύ Αυγούστου και Σεπτεμβρίου».

Τα παραβιασμένα διαπιστευτήρια εντοπίστηκαν σε αρχεία καταγραφής που συνδέονται με κακόβουλο λογισμικό κλοπής πληροφοριών, συγκεκριμένα LummaC2, Raccoon και RedLine stealer. Τα ευρήματα του Group-IB δείχνουν ότι το LummaC2 παραβίασε 70,484 κεντρικούς υπολογιστές, το Raccoon επηρέασε 22,468 οικοδεσπότες και το RedLine στόχευσε 15,970 οικοδεσπότες.

Από τον Ιούνιο έως τον Οκτώβριο του 2023, περισσότεροι από 130,000 μοναδικοί κεντρικοί υπολογιστές που ήταν συνδεδεμένοι στο OpenAI ChatGPT παραβιάστηκαν, σημειώνοντας αύξηση 36% από τα στοιχεία που καταγράφηκαν τους πρώτους πέντε μήνες του έτους.

«Η απότομη αύξηση του αριθμού των διαπιστευτηρίων ChatGPT προς πώληση οφείλεται στη συνολική αύξηση του αριθμού των κεντρικών υπολογιστών που έχουν μολυνθεί με κλέφτες πληροφοριών, δεδομένα από τα οποία στη συνέχεια διατίθενται προς πώληση σε αγορές ή σε UCL», δήλωσε η Group-IB.

Λένε ότι οι κακοί ηθοποιοί εστιάζουν εκ νέου την προσοχή τους από τους εταιρικούς υπολογιστές στα δημόσια συστήματα AI.

«Αυτό τους δίνει πρόσβαση σε αρχεία καταγραφής με το ιστορικό επικοινωνίας μεταξύ εργαζομένων και συστημάτων, τα οποία μπορούν να χρησιμοποιήσουν για να αναζητήσουν εμπιστευτικές πληροφορίες (για σκοπούς κατασκοπείας), λεπτομέρειες σχετικά με την εσωτερική υποδομή, δεδομένα ελέγχου ταυτότητας (για τη διεξαγωγή ακόμη πιο επιζήμιων επιθέσεων) και πληροφορίες σχετικά με πηγαίος κώδικας εφαρμογής."

Τα νέα έρχονται μετά από μια αναφορά της Microsoft όπου η εταιρεία ανέφερε ομοίως ότι οι παράγοντες απειλών «εξετάζουν την τεχνητή νοημοσύνη, συμπεριλαμβανομένων των LLM, για να βελτιώσουν την παραγωγικότητά τους και να επωφεληθούν από προσβάσιμες πλατφόρμες που θα μπορούσαν να προωθήσουν τους στόχους και τις τεχνικές επίθεσης».

Αναγνώρισε επίσης ότι «ομάδες εγκλήματος στον κυβερνοχώρο, παράγοντες απειλών εθνικών κρατών και άλλοι αντίπαλοι εξερευνούν και δοκιμάζουν διαφορετικές τεχνολογίες τεχνητής νοημοσύνης καθώς αναδύονται, σε μια προσπάθεια να κατανοήσουν την πιθανή αξία για τις δραστηριότητές τους και τους ελέγχους ασφαλείας που μπορεί να χρειαστεί να παρακάμψουν».

Η εταιρεία, ωστόσο, τόνισε ότι «η έρευνά της με το OpenAI δεν έχει εντοπίσει σημαντικές επιθέσεις που χρησιμοποιούν τα LLM που παρακολουθούμε στενά».

Σφραγίδα ώρας:

Περισσότερα από Ντετέκτιβ ασφαλείας