Βέλτιστες πρακτικές για την ανάπτυξη μοντέλων γλώσσας PlatoBlockchain Data Intelligence. Κάθετη αναζήτηση. Ολα συμπεριλαμβάνονται.

Βέλτιστες πρακτικές για την ανάπτυξη μοντέλων γλώσσας

Βέλτιστες πρακτικές για την ανάπτυξη μοντέλων γλώσσας

Οι Cohere, OpenAI και AI21 Labs έχουν αναπτύξει ένα προκαταρκτικό σύνολο βέλτιστων πρακτικών που ισχύουν για κάθε οργανισμό που αναπτύσσει ή αναπτύσσει μεγάλα γλωσσικά μοντέλα. Οι υπολογιστές που μπορούν να διαβάζουν και να γράφουν είναι εδώ και έχουν τη δυνατότητα να επηρεάσουν θεμελιωδώς την καθημερινή ζωή. Το μέλλον της αλληλεπίδρασης ανθρώπου-μηχανής είναι γεμάτο δυνατότητες και υποσχέσεις, αλλά κάθε ισχυρή τεχνολογία χρειάζεται προσεκτική ανάπτυξη.

Η κοινή δήλωση παρακάτω αντιπροσωπεύει ένα βήμα προς την οικοδόμηση μιας κοινότητας για την αντιμετώπιση των παγκόσμιων προκλήσεων που παρουσιάζει η πρόοδος της τεχνητής νοημοσύνης και ενθαρρύνουμε άλλους οργανισμούς που θα ήθελαν να συμμετάσχουν να έρθουν σε επαφή.

Κοινή σύσταση για ανάπτυξη μοντέλου γλώσσας

Συνιστούμε πολλές βασικές αρχές για να βοηθήσουμε τους παρόχους μεγάλων γλωσσικών μοντέλων (LLM) να μετριάσουν τους κινδύνους αυτής της τεχνολογίας, προκειμένου να επιτύχουν την πλήρη υπόσχεσή της να ενισχύσουν τις ανθρώπινες ικανότητες.

Αν και αυτές οι αρχές αναπτύχθηκαν ειδικά με βάση την εμπειρία μας με την παροχή LLM μέσω ενός API, ελπίζουμε ότι θα είναι χρήσιμες ανεξάρτητα από τη στρατηγική κυκλοφορίας (όπως η χρήση ανοιχτού κώδικα ή η χρήση σε μια εταιρεία). Αναμένουμε ότι αυτές οι συστάσεις θα αλλάξουν σημαντικά με την πάροδο του χρόνου, επειδή οι εμπορικές χρήσεις των LLM και τα συνοδευτικά ζητήματα ασφάλειας είναι νέες και εξελισσόμενες. Μαθαίνουμε ενεργά και αντιμετωπίζουμε τους περιορισμούς και τις οδούς κακής χρήσης του LLM και θα ενημερώσουμε αυτές τις αρχές και πρακτικές σε συνεργασία με την ευρύτερη κοινότητα με την πάροδο του χρόνου.

Μοιραζόμαστε αυτές τις αρχές με την ελπίδα ότι άλλοι πάροχοι LLM μπορούν να μάθουν και να τις υιοθετήσουν και να προωθήσουμε τη δημόσια συζήτηση σχετικά με την ανάπτυξη και την ανάπτυξη LLM.

Απαγόρευση κακής χρήσης


Δημοσιεύστε τις οδηγίες χρήσης και τους όρους χρήσης των LLM με τρόπο που να απαγορεύει υλική βλάβη σε άτομα, κοινότητες και κοινωνία, όπως μέσω ανεπιθύμητων μηνυμάτων, απάτης ή αστροτουρφ. Οι οδηγίες χρήσης θα πρέπει επίσης να προσδιορίζουν τομείς όπου η χρήση LLM απαιτεί επιπλέον έλεγχο και να απαγορεύουν περιπτώσεις χρήσης υψηλού κινδύνου που δεν είναι κατάλληλες, όπως η ταξινόμηση ατόμων με βάση προστατευμένα χαρακτηριστικά.


Δημιουργήστε συστήματα και υποδομές για την επιβολή των κατευθυντήριων γραμμών χρήσης. Αυτό μπορεί να περιλαμβάνει όρια ποσοστού, φιλτράρισμα περιεχομένου, έγκριση εφαρμογής πριν από την πρόσβαση στην παραγωγή, παρακολούθηση για ανώμαλη δραστηριότητα και άλλους μετριασμούς.

Μετριάστε την ακούσια βλάβη


Μετριάστε προληπτικά την επιβλαβή συμπεριφορά του μοντέλου. Οι βέλτιστες πρακτικές περιλαμβάνουν ολοκληρωμένη αξιολόγηση μοντέλου για τη σωστή αξιολόγηση των περιορισμών, ελαχιστοποίηση πιθανών πηγών μεροληψίας στα σώματα εκπαίδευσης και τεχνικές για την ελαχιστοποίηση της μη ασφαλούς συμπεριφοράς, όπως μέσω της μάθησης από την ανθρώπινη ανατροφοδότηση.


Τεκμηριώστε τις γνωστές αδυναμίες και τρωτά σημεία, όπως η προκατάληψη ή η ικανότητα παραγωγής ανασφαλούς κώδικα, καθώς σε ορισμένες περιπτώσεις κανένας βαθμός προληπτικής δράσης δεν μπορεί να εξαλείψει εντελώς την πιθανότητα ακούσιας βλάβης. Η τεκμηρίωση θα πρέπει επίσης να περιλαμβάνει βέλτιστες πρακτικές ασφάλειας για το μοντέλο και τη συγκεκριμένη περίπτωση χρήσης.

Συνεργαστείτε στοχαστικά με τα ενδιαφερόμενα μέρη


Δημιουργήστε ομάδες με διαφορετικά υπόβαθρα και να ζητήσει ευρεία συμβολή. Απαιτούνται διαφορετικές οπτικές γωνίες για τον χαρακτηρισμό και την αντιμετώπιση του τρόπου με τον οποίο τα γλωσσικά μοντέλα θα λειτουργούν στην ποικιλομορφία του πραγματικού κόσμου, όπου εάν δεν ελεγχθούν μπορεί να ενισχύσουν τις προκαταλήψεις ή να αποτύχουν να λειτουργήσουν για ορισμένες ομάδες.


Δημόσια γνωστοποίηση διδαγμάτων σχετικά με την ασφάλεια και την κακή χρήση του LLM προκειμένου να καταστεί δυνατή η ευρεία υιοθέτηση και να βοηθηθεί η δικλαδική επανάληψη των βέλτιστων πρακτικών.


Αντιμετωπίστε όλο το εργατικό δυναμικό στην εφοδιαστική αλυσίδα του γλωσσικού μοντέλου με σεβασμό. Για παράδειγμα, οι πάροχοι θα πρέπει να έχουν υψηλά πρότυπα για τις συνθήκες εργασίας εκείνων που εξετάζουν εσωτερικά τις εκροές μοντέλων και να κρατούν τους προμηθευτές σε καλά καθορισμένα πρότυπα (π.χ. να διασφαλίζουν ότι οι ετικέτες μπορούν να εξαιρεθούν από μια δεδομένη εργασία).

Ως πάροχοι LLM, η δημοσίευση αυτών των αρχών αντιπροσωπεύει ένα πρώτο βήμα για τη συλλογική καθοδήγηση της ανάπτυξης και ανάπτυξης μοντέλων ασφαλέστερων μεγάλων γλωσσών. Είμαστε ενθουσιασμένοι που συνεχίζουμε να εργαζόμαστε μεταξύ μας και με άλλα μέρη για να εντοπίσουμε άλλες ευκαιρίες για τη μείωση των ακούσιων βλαβών από και την πρόληψη της κακόβουλης χρήσης γλωσσικών μοντέλων.

Λήψη ως PDF

Υποστήριξη από άλλους οργανισμούς

«Ενώ τα LLM υπόσχονται πολλά, έχουν σημαντικά εγγενή ζητήματα ασφάλειας που πρέπει να εργαστούν. Αυτές οι βέλτιστες πρακτικές χρησιμεύουν ως ένα σημαντικό βήμα για την ελαχιστοποίηση των βλαβών αυτών των μοντέλων και τη μεγιστοποίηση των πιθανών οφελών τους».

—Άνθρωπος

«Καθώς τα μεγάλα γλωσσικά μοντέλα (LLM) γίνονται όλο και πιο ισχυρά και εκφραστικά, ο μετριασμός του κινδύνου γίνεται όλο και πιο σημαντικός. Χαιρετίζουμε αυτές και άλλες προσπάθειες για να επιδιώξουμε προληπτικά τον μετριασμό των βλαβών και να τονίσουμε στους χρήστες τομείς που απαιτούν επιπλέον επιμέλεια. Οι αρχές που περιγράφονται εδώ είναι μια σημαντική συμβολή στην παγκόσμια συζήτηση».

—John Bansemer, Διευθυντής του CyberAI Project και Senior Fellow, Center for Security and Emerging Technology (CSET)

«Η Google επιβεβαιώνει τη σημασία των περιεκτικών στρατηγικών για την ανάλυση των δεδομένων μοντέλων και εκπαίδευσης για τον μετριασμό των κινδύνων βλάβης, μεροληψίας και ψευδών δηλώσεων. Είναι ένα στοχαστικό βήμα που έγινε από αυτούς τους παρόχους τεχνητής νοημοσύνης για την προώθηση των αρχών και της τεκμηρίωσης για την ασφάλεια της τεχνητής νοημοσύνης».

—Google Cloud Platform (GCP)

«Η ασφάλεια των μοντέλων θεμελίων, όπως τα μεγάλα γλωσσικά μοντέλα, είναι μια αυξανόμενη κοινωνική ανησυχία. Επαινούμε τα Cohere, OpenAI και AI21 Labs που έκαναν ένα πρώτο βήμα για να περιγράψουν τις αρχές υψηλού επιπέδου για υπεύθυνη ανάπτυξη και ανάπτυξη από την οπτική γωνία των προγραμματιστών μοντέλων. Υπάρχει ακόμη πολλή δουλειά που πρέπει να γίνει και πιστεύουμε ότι είναι απαραίτητο να δεσμευτούν περισσότερες φωνές από τον ακαδημαϊκό χώρο, τη βιομηχανία και την κοινωνία των πολιτών για την ανάπτυξη πιο λεπτομερών αρχών και κοινοτικών κανόνων. Όπως αναφέρουμε στην πρόσφατη μας ανάρτηση, σημασία δεν έχει μόνο το τελικό αποτέλεσμα, αλλά η νομιμότητα της διαδικασίας».

—Percy Liang, Διευθυντής του Stanford Center for Research on Foundation Models (CRFM)

Εμπλέκομαι

Εάν αναπτύσσετε γλωσσικά μοντέλα ή εργάζεστε για να μειώσετε τους κινδύνους τους, θα θέλαμε να μιλήσουμε μαζί σας. Παρακαλώ απευθυνθείτε στο bestpractices@openai.com.

Σφραγίδα ώρας:

Περισσότερα από OpenAI