Γιατί πρέπει να γνωρίζετε την καταγωγή του AI σας

Γιατί πρέπει να γνωρίζετε την καταγωγή του AI σας

Γιατί πρέπει να γνωρίζετε την προγονική νοημοσύνη δεδομένων PlatoBlockchain της AI σας. Κάθετη αναζήτηση. Ολα συμπεριλαμβάνονται.

ΣΧΟΛΙΑΣΜΟΣ

Η τεχνητή νοημοσύνη (AI) αλλάζει γρήγορα σχεδόν κάθε πτυχή της καθημερινότητάς μας, από το πώς εργαζόμαστε μέχρι τον τρόπο με τον οποίο προσλαμβάνουμε πληροφορίες και τον τρόπο με τον οποίο καθορίζουμε τους ηγέτες μας. Όπως με κάθε τεχνολογία, η τεχνητή νοημοσύνη είναι ανήθικη, αλλά μπορεί να χρησιμοποιηθεί για την προώθηση της κοινωνίας ή φέρνει κακό.

Τα δεδομένα είναι τα γονίδια που τροφοδοτούν τις εφαρμογές AI. Είναι DNA και RNA όλα τυλιγμένα σε ένα. Όπως λέγεται συχνά κατά την κατασκευή συστημάτων λογισμικού: «σκουπίδια μέσα/σκουπίδια έξω». Η τεχνολογία AI είναι τόσο ακριβής, ασφαλής και λειτουργική όσο οι πηγές δεδομένων στις οποίες βασίζεται. Το κλειδί για να διασφαλιστεί ότι η τεχνητή νοημοσύνη θα εκπληρώσει την υπόσχεσή της και θα αποφύγει τους εφιάλτες της έγκειται στην ικανότητα να κρατάμε τα σκουπίδια έξω και να την εμποδίζουμε να πολλαπλασιαστεί και να αναπαραχθεί σε εκατομμύρια εφαρμογές τεχνητής νοημοσύνης.

Αυτό ονομάζεται προέλευση δεδομένων και δεν μπορούμε να περιμένουμε άλλη μια μέρα για να εφαρμόσουμε ελέγχους που εμποδίζουν το μέλλον της τεχνητής νοημοσύνης μας να γίνει ένας τεράστιος σωρός σκουπιδιών.

Τα κακά δεδομένα οδηγούν σε μοντέλα τεχνητής νοημοσύνης που μπορούν να διαδώσουν ευπάθειες στον κυβερνοχώρο, παραπληροφόρηση και άλλες επιθέσεις παγκοσμίως μέσα σε δευτερόλεπτα. Σημερινή γενετική AI Τα μοντέλα (GenAI) είναι απίστευτα πολύπλοκα, αλλά, στον πυρήνα, τα μοντέλα GenAI απλώς προβλέπουν το καλύτερο επόμενο κομμάτι δεδομένων προς έξοδο, δεδομένου ενός συνόλου υπαρχόντων προηγούμενων δεδομένων.

Μέτρηση Ακρίβειας

Ένα μοντέλο τύπου ChatGPT αξιολογεί το σύνολο των λέξεων που συνθέτουν την αρχική ερώτηση που τέθηκε και όλες τις λέξεις στην απάντηση του μοντέλου μέχρι στιγμής για να υπολογίσει την επόμενη καλύτερη λέξη προς έξοδο. Το κάνει αυτό επανειλημμένα μέχρι να αποφασίσει ότι έχει δώσει αρκετή απάντηση. Ας υποθέσουμε ότι αξιολογείτε την ικανότητα του μοντέλου να συνδυάζει λέξεις που συνθέτουν καλοσχηματισμένες, γραμματικά σωστές προτάσεις που είναι επί του θέματος και γενικά σχετικές με τη συζήτηση. Σε αυτήν την περίπτωση, τα σημερινά μοντέλα είναι εκπληκτικά καλά — μια μέτρηση ακρίβειας.

Βουτήξτε βαθύτερα εάν το κείμενο που παράγεται με AI μεταφέρει πάντα «σωστές» πληροφορίες και υποδεικνύει κατάλληλα το επίπεδο εμπιστοσύνης των μεταφερόμενων πληροφοριών. Αυτό αποκαλύπτει προβλήματα που προέρχονται από μοντέλα που προβλέπουν πολύ καλά κατά μέσο όρο, αλλά όχι τόσο καλά στις ακραίες περιπτώσεις - αντιπροσωπεύοντας ένα πρόβλημα στιβαρότητας. Μπορεί να επιδεινωθεί όταν η κακή παραγωγή δεδομένων από μοντέλα τεχνητής νοημοσύνης αποθηκεύεται στο διαδίκτυο και χρησιμοποιείται ως μελλοντικά δεδομένα εκπαίδευσης για αυτά και άλλα μοντέλα.

Οι κακές εξόδους μπορούν να αναπαραχθούν σε μια κλίμακα που δεν έχουμε δει ποτέ, προκαλώντας έναν βρόχο καταστροφής AI προς τα κάτω.

Εάν ένας κακός ηθοποιός ήθελε να βοηθήσει αυτή τη διαδικασία, θα μπορούσε σκόπιμα να ενθαρρύνει επιπλέον κακά δεδομένα να παράγονται, να αποθηκεύονται και να διαδίδονται - οδηγώντας σε ακόμα περισσότερη παραπληροφόρηση που βγαίνει από τα chatbots ή κάτι τόσο κακό και τρομακτικό όσο τα μοντέλα αυτόματου πιλότου αυτοκινήτων που αποφασίζουν ότι χρειάζονται στρίψτε γρήγορα ένα αυτοκίνητο προς τα δεξιά, παρόλο που τα αντικείμενα είναι εμπόδια αν «βλέπουν» μια ειδικά φτιαγμένη εικόνα μπροστά τους (υποθετικά, φυσικά).

Μετά από δεκαετίες, η βιομηχανία ανάπτυξης λογισμικού — με επικεφαλής τον Οργανισμό Ασφάλειας Υποδομής Κυβερνοασφάλειας — υλοποιεί επιτέλους μια ασφαλής κατά σχεδιασμό δομή. Ασφαλής-από-σχεδιασμός επιβάλλει ότι η κυβερνοασφάλεια βρίσκεται στο θεμέλιο της διαδικασίας ανάπτυξης λογισμικού και μια από τις βασικές αρχές της απαιτεί την καταλογογράφηση κάθε στοιχείου ανάπτυξης λογισμικού — λογαριασμός υλικών λογισμικού (SBOM) — για την ενίσχυση της ασφάλειας και της ανθεκτικότητας. Τέλος, η ασφάλεια αντικαθιστά την ταχύτητα ως τον πιο κρίσιμο παράγοντα κυκλοφορίας στην αγορά.

Διασφάλιση σχεδίων AI

Το AI χρειάζεται κάτι παρόμοιο. Ο βρόχος ανάδρασης AI αποτρέπει κοινές τεχνικές άμυνας στο παρελθόν στον κυβερνοχώρο, όπως η παρακολούθηση υπογραφών κακόβουλου λογισμικού, η δημιουργία περιμέτρων γύρω από πόρους δικτύου ή η σάρωση ανθρώπινου γραμμένου κώδικα για τρωτά σημεία. Πρέπει να κάνουμε τα ασφαλή σχέδια τεχνητής νοημοσύνης ως απαίτηση κατά τη βρεφική ηλικία της τεχνολογίας, ώστε η τεχνητή νοημοσύνη να μπορεί να γίνει ασφαλής πολύ πριν ανοίξει το κουτί της Πανδώρας.

Λοιπόν, πώς λύνουμε αυτό το πρόβλημα; Πρέπει να βγάλουμε μια σελίδα από τον ακαδημαϊκό κόσμο. Εκπαιδεύουμε μαθητές με εξαιρετικά επιμελημένα δεδομένα κατάρτισης, που ερμηνεύονται και μεταφέρονται σε αυτούς μέσω μιας βιομηχανίας δασκάλων. Συνεχίζουμε αυτήν την προσέγγιση για να διδάσκουμε ενήλικες, αλλά οι ενήλικες αναμένεται να κάνουν οι ίδιοι περισσότερη επιμέλεια δεδομένων.

Η εκπαίδευση μοντέλων τεχνητής νοημοσύνης πρέπει να ακολουθήσει μια προσέγγιση επιμελημένων δεδομένων δύο σταδίων. Αρχικά, τα βασικά μοντέλα τεχνητής νοημοσύνης θα εκπαιδεύονται χρησιμοποιώντας τρέχουσες μεθοδολογίες χρησιμοποιώντας τεράστιες ποσότητες λιγότερο επιμελημένων συνόλων δεδομένων. Αυτά τα βασικά μοντέλα μεγάλων γλωσσών (LLM) θα ήταν κατά προσέγγιση ανάλογα με ένα νεογέννητο μωρό. Στη συνέχεια, τα μοντέλα βασικού επιπέδου θα εκπαιδεύονται με εξαιρετικά επιμελημένα σύνολα δεδομένων παρόμοια με το πώς τα παιδιά διδάσκονται και μεγαλώνουν για να γίνουν ενήλικες.

Η προσπάθεια δημιουργίας μεγάλων, επιμελημένων συνόλων δεδομένων εκπαίδευσης για όλους τους τύπους στόχων δεν θα είναι μικρή. Αυτό είναι ανάλογο με όλη την προσπάθεια που καταβάλλουν οι γονείς, τα σχολεία και η κοινωνία για να παρέχουν ένα ποιοτικό περιβάλλον και ποιοτικές πληροφορίες για τα παιδιά καθώς εξελίσσονται σε (ελπίζουμε) λειτουργικούς συντελεστές με προστιθέμενη αξία στην κοινωνία. Αυτό είναι το επίπεδο προσπάθειας που απαιτείται για τη δημιουργία ποιοτικών συνόλων δεδομένων για την εκπαίδευση ποιοτικών, εύρυθμων, ελάχιστα κατεστραμμένων μοντέλων τεχνητής νοημοσύνης και θα μπορούσε να οδηγήσει σε μια ολόκληρη βιομηχανία τεχνητής νοημοσύνης και ανθρώπων να συνεργαστούν για να διδάξουν τα μοντέλα τεχνητής νοημοσύνης να είναι καλά στη δουλειά τους. .

Η κατάσταση της σημερινής διαδικασίας εκπαίδευσης AI δείχνει ορισμένα σημάδια αυτής της διαδικασίας δύο σταδίων. Όμως, λόγω της νηπιακής ηλικίας της τεχνολογίας GenAI και της βιομηχανίας, η υπερβολική εκπαίδευση απαιτεί τη λιγότερο επιμελημένη προσέγγιση της πρώτης φάσης.

Όσον αφορά την ασφάλεια της τεχνητής νοημοσύνης, δεν έχουμε την πολυτέλεια να περιμένουμε μια ώρα, πόσο μάλλον μια δεκαετία. Η τεχνητή νοημοσύνη χρειάζεται μια εφαρμογή 23andMe που επιτρέπει την πλήρη ανασκόπηση της «γενεαλογίας αλγορίθμων», ώστε οι προγραμματιστές να μπορούν να κατανοήσουν πλήρως την «οικογενειακή» ιστορία της τεχνητής νοημοσύνης για να αποτρέψουν την αναπαραγωγή χρόνιων προβλημάτων, τη μόλυνση των κρίσιμων συστημάτων στα οποία βασιζόμαστε καθημερινά και τη δημιουργία οικονομικών και κοινωνικών βλαβών που μπορεί να είναι μη αναστρέψιμη.

Η εθνική μας ασφάλεια εξαρτάται από αυτό.

Σφραγίδα ώρας:

Περισσότερα από Σκοτεινή ανάγνωση