Cele mai bune practici pentru implementarea modelelor de limbaj PlatoBlockchain Data Intelligence. Căutare verticală. Ai.

Cele mai bune practici pentru implementarea modelelor lingvistice

Cele mai bune practici pentru implementarea modelelor lingvistice

Laboratoarele Cohere, OpenAI și AI21 au dezvoltat un set preliminar de bune practici aplicabile oricărei organizații care dezvoltă sau implementează modele de limbaj mari. Calculatoarele care pot citi și scrie sunt aici și au potențialul de a avea un impact fundamental asupra vieții de zi cu zi. Viitorul interacțiunii om-mașină este plin de posibilități și promisiuni, dar orice tehnologie puternică are nevoie de o implementare atentă.

Declarația comună de mai jos reprezintă un pas către construirea unei comunități care să abordeze provocările globale prezentate de progresul AI și încurajăm alte organizații care ar dori să participe să ia legătura.

Recomandare comună pentru implementarea modelului lingvistic

Recomandăm câteva principii cheie pentru a ajuta furnizorii de modele lingvistice mari (LLM) să atenueze riscurile acestei tehnologii pentru a-și îndeplini pe deplin promisiunea de a spori capacitățile umane.

Deși aceste principii au fost dezvoltate în mod special pe baza experienței noastre în furnizarea de LLM-uri printr-un API, sperăm că vor fi utile indiferent de strategia de lansare (cum ar fi open-sourcing sau utilizarea în cadrul unei companii). Ne așteptăm ca aceste recomandări să se schimbe semnificativ în timp, deoarece utilizările comerciale ale LLM-urilor și considerentele de siguranță aferente sunt noi și în evoluție. Învățăm în mod activ și abordăm limitările LLM și căile de utilizare greșită și vom actualiza aceste principii și practici în colaborare cu comunitatea mai largă de-a lungul timpului.

Împărtășim aceste principii în speranța că alți furnizori de LLM ar putea învăța și să le adopte și să promoveze discuțiile publice despre dezvoltarea și implementarea LLM.

Interziceți utilizarea abuzivă


Publicați regulile de utilizare și termenii de utilizare de LLM într-un mod care interzice vătămările materiale aduse persoanelor, comunităților și societății, cum ar fi prin spam, fraudă sau astroturfing. Orientările de utilizare ar trebui să specifice, de asemenea, domeniile în care utilizarea LLM necesită un control suplimentar și să interzică cazurile de utilizare cu risc ridicat care nu sunt adecvate, cum ar fi clasificarea persoanelor pe baza caracteristicilor protejate.


Construiți sisteme și infrastructură pentru a aplica regulile de utilizare. Acestea pot include limite ale ratei, filtrarea conținutului, aprobarea aplicației înainte de accesul la producție, monitorizarea activității anormale și alte atenuări.

Reduceți vătămările neintenționate


Reduceți în mod proactiv comportamentul dăunător al modelului. Cele mai bune practici includ evaluarea cuprinzătoare a modelului pentru a evalua corect limitările, minimizarea surselor potențiale de părtinire în corpurile de instruire și tehnici pentru a minimiza comportamentul nesigur, cum ar fi prin învățarea din feedbackul uman.


Documentați punctele slabe și vulnerabilități cunoscute, cum ar fi părtinirea sau capacitatea de a produce cod nesigur, deoarece în unele cazuri nici un grad de acțiune preventivă nu poate elimina complet potențialul de vătămare neintenționată. Documentația ar trebui să includă, de asemenea, cele mai bune practici de siguranță specifice modelului și cazului de utilizare.

Colaborați atent cu părțile interesate


Formați echipe cu medii diverse și solicitați o contribuție largă. Sunt necesare perspective diverse pentru a caracteriza și aborda modul în care modelele lingvistice vor funcționa în diversitatea lumii reale, unde, dacă nu sunt verificate, ele pot întări prejudecățile sau pot eșua pentru unele grupuri.


Dezvăluie public lecțiile învățate cu privire la siguranța LLM și utilizarea abuzivă pentru a permite adoptarea pe scară largă și pentru a ajuta la iterarea intersectorială a celor mai bune practici.


Tratați cu respect toată munca din lanțul de aprovizionare a modelului lingvistic. De exemplu, furnizorii ar trebui să aibă standarde înalte pentru condițiile de lucru ale celor care revizuiesc rezultatele modelului în interior și să îi țină pe furnizori la standarde bine specificate (de exemplu, să se asigure că etichetatorii pot renunța la o anumită sarcină).

În calitate de furnizori LLM, publicarea acestor principii reprezintă un prim pas în ghidarea în colaborare a dezvoltării și implementării mai sigure a modelelor lingvistice mari. Suntem încântați să continuăm să lucrăm unul cu celălalt și cu alte părți pentru a identifica alte oportunități de a reduce daunele neintenționate și de a preveni utilizarea rău intenționată a modelelor de limbaj.

Descărcați ca PDF

Sprijin din partea altor organizații

„Deși LLM-urile sunt foarte promițătoare, au probleme inerente semnificative de siguranță la care trebuie să se lucreze. Aceste bune practici servesc ca un pas important în reducerea la minimum a daunelor acestor modele și maximizarea beneficiilor potențiale ale acestora.”

— Antropică

„Pe măsură ce modelele de limbaj mari (LLM) au devenit din ce în ce mai puternice și mai expresive, reducerea riscurilor devine din ce în ce mai importantă. Salutăm aceste și alte eforturi de a încerca în mod proactiv să atenueze daunele și să evidențieze utilizatorilor domeniile care necesită o diligență suplimentară. Principiile prezentate aici reprezintă o contribuție importantă la conversația globală.”

— John Bansemer, Director al Proiectului CyberAI și Senior Fellow, Centrul pentru Securitate și Tehnologie Emergentă (CSET)

„Google afirmă importanța strategiilor cuprinzătoare în analiza modelului și a datelor de antrenament pentru a atenua riscurile de vătămare, părtinire și denaturare. Este un pas atent făcut de acești furnizori de AI pentru a promova principiile și documentația privind siguranța AI.”

—Google Cloud Platform (GCP)

„Siguranța modelelor de fundație, cum ar fi modelele mari de limbaj, este o preocupare socială în creștere. Lăudăm Cohere, OpenAI și AI21 Labs pentru că au făcut un prim pas pentru a contura principiile la nivel înalt pentru dezvoltarea și implementarea responsabilă din perspectiva dezvoltatorilor de modele. Mai este mult de făcut și credem că este esențial să angajăm mai multe voci din mediul academic, industrie și societatea civilă pentru a dezvolta principii și norme comunitare mai detaliate. După cum afirmăm în recenta noastră blog, nu contează doar rezultatul final, ci și legitimitatea procesului.”

—Percy Liang, director al Centrului Stanford pentru Cercetare asupra Modelelor Fundației (CRFM)

A se implica

Dacă dezvoltați modele lingvistice sau lucrați pentru a le atenua riscurile, ne-ar plăcea să vorbim cu dvs. Vă rugăm să contactați la bestpractices@openai.com.

Timestamp-ul:

Mai mult de la OpenAI