Migliori pratiche per la distribuzione di modelli linguistici PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

Migliori pratiche per la distribuzione di modelli linguistici

Migliori pratiche per la distribuzione di modelli linguistici

Cohere, OpenAI e AI21 Labs hanno sviluppato una serie preliminare di best practice applicabili a qualsiasi organizzazione che sviluppa o implementa modelli linguistici di grandi dimensioni. I computer in grado di leggere e scrivere sono qui e hanno il potenziale per avere un impatto fondamentale sulla vita quotidiana. Il futuro dell'interazione uomo-macchina è pieno di possibilità e promesse, ma qualsiasi tecnologia potente necessita di un'attenta implementazione.

La dichiarazione congiunta di seguito rappresenta un passo verso la costruzione di una comunità per affrontare le sfide globali presentate dal progresso dell'IA e incoraggiamo altre organizzazioni che vorrebbero partecipare a mettersi in contatto.

Raccomandazione congiunta per l'implementazione del modello linguistico

Stiamo raccomandando diversi principi chiave per aiutare i fornitori di modelli linguistici di grandi dimensioni (LLM) a mitigare i rischi di questa tecnologia al fine di realizzare la sua piena promessa di aumentare le capacità umane.

Sebbene questi principi siano stati sviluppati specificamente sulla base della nostra esperienza con la fornitura di LLM tramite un'API, speriamo che siano utili indipendentemente dalla strategia di rilascio (come l'open-sourcing o l'utilizzo all'interno di un'azienda). Ci aspettiamo che queste raccomandazioni cambino in modo significativo nel tempo perché gli usi commerciali degli LLM e le relative considerazioni sulla sicurezza sono nuovi e in evoluzione. Stiamo attivamente imparando e affrontando i limiti e le vie per l'uso improprio di LLM e aggiorneremo questi principi e pratiche in collaborazione con la comunità più ampia nel tempo.

Condividiamo questi principi nella speranza che altri fornitori di LLM possano imparare da essi e adottarli e per promuovere la discussione pubblica sullo sviluppo e l'implementazione di LLM.

Proibire l'uso improprio


Pubblica le linee guida per l'uso e i termini di utilizzo di LLM in un modo che vieti danni materiali a individui, comunità e società, ad esempio attraverso spam, frode o astroturfing. Le linee guida sull'utilizzo dovrebbero anche specificare i domini in cui l'uso di LLM richiede un controllo aggiuntivo e vietare casi d'uso ad alto rischio non appropriati, come la classificazione delle persone in base a caratteristiche protette.


Costruisci sistemi e infrastrutture per applicare le linee guida sull'utilizzo. Ciò può includere limiti di velocità, filtraggio dei contenuti, approvazione dell'applicazione prima dell'accesso alla produzione, monitoraggio di attività anomale e altre mitigazioni.

Mitiga il danno non intenzionale


Attenuazione proattiva del comportamento dannoso del modello. Le migliori pratiche includono una valutazione completa del modello per valutare correttamente i limiti, ridurre al minimo le potenziali fonti di pregiudizi nei corpora di formazione e tecniche per ridurre al minimo i comportamenti non sicuri, ad esempio attraverso l'apprendimento dal feedback umano.


Documentare i punti deboli e le vulnerabilità noti, come pregiudizi o capacità di produrre codice non sicuro, poiché in alcuni casi nessun grado di azione preventiva può eliminare completamente il potenziale danno indesiderato. La documentazione dovrebbe includere anche le migliori pratiche di sicurezza specifiche per modello e caso d'uso.

Collaborare premurosamente con le parti interessate


Crea squadre con background diversi e sollecitare un ampio contributo. Sono necessarie diverse prospettive per caratterizzare e affrontare il modo in cui i modelli linguistici funzioneranno nella diversità del mondo reale, dove, se non controllati, possono rafforzare i pregiudizi o non funzionare per alcuni gruppi.


Divulgare pubblicamente le lezioni apprese in merito alla sicurezza e all'uso improprio di LLM al fine di consentire un'adozione diffusa e aiutare con l'iterazione intersettoriale sulle migliori pratiche.


Trattate con rispetto tutto il lavoro nella catena di approvvigionamento del modello linguistico. Ad esempio, i fornitori dovrebbero avere standard elevati per le condizioni di lavoro di coloro che riesaminano internamente i risultati del modello e mantenere i fornitori a standard ben specifici (ad esempio, garantire che gli etichettatori siano in grado di rinunciare a un determinato compito).

In qualità di provider LLM, la pubblicazione di questi principi rappresenta un primo passo per guidare in modo collaborativo lo sviluppo e l'implementazione di modelli linguistici di grandi dimensioni più sicuri. Siamo entusiasti di continuare a lavorare insieme e con altre parti per identificare altre opportunità per ridurre i danni non intenzionali e prevenire l'uso dannoso dei modelli linguistici.

Scarica come PDF

Supporto da altre organizzazioni

"Sebbene gli LLM mantengano molte promesse, hanno problemi di sicurezza intrinseci significativi su cui è necessario lavorare. Queste migliori pratiche servono come un passo importante per ridurre al minimo i danni di questi modelli e massimizzare i loro potenziali benefici".

—Antropico

“Dato che i modelli linguistici di grandi dimensioni (LLM) sono diventati sempre più potenti ed espressivi, la mitigazione del rischio diventa sempre più importante. Accogliamo con favore questi e altri sforzi per cercare in modo proattivo di mitigare i danni ed evidenziare agli utenti le aree che richiedono maggiore diligenza. I principi qui delineati sono un contributo importante alla conversazione globale”.

—John Bansemer, Direttore del Progetto CyberAI e Senior Fellow, Center for Security and Emerging Technology (CSET)

"Google afferma l'importanza di strategie complete nell'analisi del modello e dei dati di addestramento per mitigare i rischi di danni, pregiudizi e false dichiarazioni. È un passo ponderato intrapreso da questi fornitori di IA per promuovere i principi e la documentazione verso la sicurezza dell'IA".

—Piattaforma Google Cloud (GCP)

“La sicurezza dei modelli di base, come i grandi modelli linguistici, è una crescente preoccupazione sociale. Lodiamo Cohere, OpenAI e AI21 Labs per aver compiuto un primo passo per delineare principi di alto livello per lo sviluppo e l'implementazione responsabili dal punto di vista degli sviluppatori di modelli. C'è ancora molto lavoro da fare e crediamo sia essenziale coinvolgere più voci del mondo accademico, dell'industria e della società civile per sviluppare principi più dettagliati e norme comunitarie. Come affermiamo nel nostro recente post sul blog, non è solo il risultato finale, ma la legittimità del processo che conta”.

—Percy Liang, Direttore dello Stanford Center for Research on Foundation Models (CRFM)

Mettersi in gioco

Se stai sviluppando modelli linguistici o stai lavorando per mitigarne i rischi, ci piacerebbe parlare con te. Si prega di contattare bestpractice@openai.com.

Timestamp:

Di più da OpenAI