Beste praksis for distribusjon av språkmodeller PlatoBlockchain Data Intelligence. Vertikalt søk. Ai.

Beste praksis for distribusjon av språkmodeller

Beste praksis for distribusjon av språkmodeller

Cohere, OpenAI og AI21 Labs har utviklet et foreløpig sett med beste praksis som gjelder for enhver organisasjon som utvikler eller distribuerer store språkmodeller. Datamaskiner som kan lese og skrive er her, og de har potensial til å påvirke dagliglivet fundamentalt. Fremtiden for interaksjon mellom mennesker og maskiner er full av muligheter og løfter, men all kraftig teknologi trenger forsiktig distribusjon.

Den felles erklæringen nedenfor representerer et skritt mot å bygge et fellesskap for å møte de globale utfordringene som AI-fremgang presenterer, og vi oppfordrer andre organisasjoner som ønsker å delta til å ta kontakt.

Felles anbefaling for utplassering av språkmodeller

Vi anbefaler flere nøkkelprinsipper for å hjelpe leverandører av store språkmodeller (LLM) med å redusere risikoen ved denne teknologien for å oppnå sitt fulle løfte om å øke menneskelige evner.

Selv om disse prinsippene ble utviklet spesifikt basert på vår erfaring med å tilby LLM-er gjennom en API, håper vi at de vil være nyttige uavhengig av utgivelsesstrategi (som åpen kildekode eller bruk i et selskap). Vi forventer at disse anbefalingene vil endre seg betydelig over tid fordi kommersiell bruk av LLM og tilhørende sikkerhetshensyn er nye og utviklende. Vi lærer aktivt om og adresserer LLM-begrensninger og veier for misbruk, og vil oppdatere disse prinsippene og praksisene i samarbeid med det bredere samfunnet over tid.

Vi deler disse prinsippene i håp om at andre LLM-leverandører kan lære av og ta i bruk dem, og for å fremme offentlig diskusjon om LLM-utvikling og -distribusjon.

Forby misbruk


Publiser retningslinjer og vilkår for bruk av LLM-er på en måte som forbyr materiell skade på enkeltpersoner, samfunn og samfunn, for eksempel gjennom spam, svindel eller astroturfing. Retningslinjer for bruk bør også spesifisere domener der LLM-bruk krever ekstra gransking og forby høyrisikobrukstilfeller som ikke er hensiktsmessige, for eksempel klassifisering av personer basert på beskyttede egenskaper.


Bygg systemer og infrastruktur for å håndheve retningslinjer for bruk. Dette kan inkludere hastighetsgrenser, innholdsfiltrering, applikasjonsgodkjenning før produksjonstilgang, overvåking for unormal aktivitet og andre begrensninger.

Redusere utilsiktet skade


Proaktivt redusere skadelig modellatferd. Beste praksis inkluderer omfattende modellevaluering for å vurdere begrensninger på riktig måte, minimere potensielle kilder til skjevheter i treningskorpora, og teknikker for å minimere usikker atferd, for eksempel gjennom å lære av menneskelig tilbakemelding.


Dokumenter kjente svakheter og sårbarheter, for eksempel skjevhet eller evne til å produsere usikker kode, ettersom i noen tilfeller ingen grad av forebyggende handling kan fullstendig eliminere potensialet for utilsiktet skade. Dokumentasjonen bør også inkludere modell- og bruksspesifikke beste praksiser for sikkerhet.

Gjennomtenkt samarbeid med interessenter


Bygg team med forskjellig bakgrunn og be om brede innspill. Forskjellige perspektiver er nødvendige for å karakterisere og adressere hvordan språkmodeller vil fungere i mangfoldet i den virkelige verden, der hvis de ikke kontrolleres, kan de forsterke skjevheter eller ikke fungere for noen grupper.


Offentliggjør lærdommen om LLM-sikkerhet og misbruk for å muliggjøre utbredt bruk og hjelp med gjentakelse på tvers av bransje om beste praksis.


Behandle all arbeidskraft i språkmodellens forsyningskjede med respekt. For eksempel bør leverandører ha høye standarder for arbeidsforholdene til de som vurderer modellutdata internt og holde leverandører til velspesifiserte standarder (f.eks. sikre at etiketteringsleverandører kan velge bort en gitt oppgave).

Som LLM-leverandører representerer publisering av disse prinsippene et første skritt for å samarbeide om å lede sikrere utvikling og distribusjon av store språkmodeller. Vi er glade for å fortsette å samarbeide med hverandre og med andre parter for å identifisere andre muligheter for å redusere utilsiktede skader fra og forhindre ondsinnet bruk av språkmodeller.

Last ned som PDF

Støtte fra andre organisasjoner

"Selv om LLM-er har mye lovende, har de betydelige iboende sikkerhetsproblemer som må jobbes med. Disse beste praksisene tjener som et viktig skritt for å minimere skadene til disse modellene og maksimere deres potensielle fordeler."

– Antropisk

«Ettersom store språkmodeller (LLMs) har blitt stadig kraftigere og mer uttrykksfulle, blir risikoreduksjon stadig viktigere. Vi hilser disse og andre anstrengelser velkommen for å proaktivt forsøke å redusere skader og fremheve for brukere områder som krever ekstra aktsomhet. Prinsippene som er skissert her er et viktig bidrag til den globale samtalen."

—John Bansemer, direktør for CyberAI-prosjektet og seniorstipendiat, Center for Security and Emerging Technology (CSET)

«Google bekrefter viktigheten av omfattende strategier for å analysere modell- og opplæringsdata for å redusere risikoen for skade, skjevhet og feilrepresentasjon. Det er et gjennomtenkt skritt tatt av disse AI-leverandørene for å fremme prinsippene og dokumentasjonen mot AI-sikkerhet."

– Google Cloud Platform (GCP)

«Sikkerheten til grunnmodeller, for eksempel store språkmodeller, er en økende sosial bekymring. Vi berømmer Cohere, OpenAI og AI21 Labs for å ta et første skritt for å skissere prinsipper på høyt nivå for ansvarlig utvikling og distribusjon fra modellutviklernes perspektiv. Det er fortsatt mye arbeid å gjøre, og vi mener det er viktig å engasjere flere stemmer fra akademia, industri og sivilsamfunn for å utvikle mer detaljerte prinsipper og samfunnsnormer. Som vi sier i vår siste blogginnlegg, det er ikke bare sluttresultatet, men legitimiteten til prosessen som betyr noe.»

—Percy Liang, direktør for Stanford Center for Research on Foundation Models (CRFM)

Bli involvert

Hvis du utvikler språkmodeller eller jobber med å redusere risikoen deres, vil vi gjerne snakke med deg. Ta kontakt på bestpractices@openai.com.

Tidstempel:

Mer fra OpenAI