Bästa metoder för att distribuera språkmodeller PlatoBlockchain Data Intelligence. Vertikal sökning. Ai.

Bästa metoder för att implementera språkmodeller

Bästa metoder för att implementera språkmodeller

Cohere, OpenAI och AI21 Labs har utvecklat en preliminär uppsättning bästa praxis som är tillämplig på alla organisationer som utvecklar eller distribuerar stora språkmodeller. Datorer som kan läsa och skriva finns här, och de har potential att i grunden påverka vardagen. Framtiden för interaktion mellan människa och maskin är full av möjligheter och löften, men all kraftfull teknik kräver noggrann implementering.

Det gemensamma uttalandet nedan representerar ett steg mot att bygga en gemenskap för att ta itu med de globala utmaningar som AI-framsteg innebär, och vi uppmuntrar andra organisationer som vill delta att ta kontakt.

Gemensam rekommendation för spridning av språkmodeller

Vi rekommenderar flera nyckelprinciper för att hjälpa leverantörer av stora språkmodeller (LLM) att minska riskerna med denna teknik för att uppnå sitt fulla löfte om att utöka mänskliga förmågor.

Även om dessa principer utvecklades specifikt baserat på vår erfarenhet av att tillhandahålla LLM:er genom ett API, hoppas vi att de kommer att vara användbara oavsett releasestrategi (som öppen källkod eller användning inom ett företag). Vi förväntar oss att dessa rekommendationer kommer att förändras avsevärt över tiden eftersom den kommersiella användningen av LLM och åtföljande säkerhetsöverväganden är nya och utvecklas. Vi lär oss aktivt om och tar itu med LLM-begränsningar och vägar för missbruk, och kommer att uppdatera dessa principer och praxis i samarbete med det bredare samhället över tiden.

Vi delar med oss ​​av dessa principer i hopp om att andra LLM-leverantörer kan lära av och anta dem, och för att främja offentlig diskussion om utveckling och implementering av LLM.

Förbjud missbruk


Publicera användningsriktlinjer och användarvillkor av LLMs på ett sätt som förbjuder materiell skada på individer, samhällen och samhälle, till exempel genom skräppost, bedrägerier eller astroturfing. Riktlinjer för användning bör också specificera domäner där LLM-användning kräver extra granskning och förbjuda användningsfall med hög risk som inte är lämpliga, som att klassificera personer baserat på skyddade egenskaper.


Bygg system och infrastruktur för att upprätthålla användningsriktlinjer. Detta kan inkludera hastighetsgränser, innehållsfiltrering, applikationsgodkännande före produktionsåtkomst, övervakning av onormal aktivitet och andra begränsningar.

Minska oavsiktlig skada


Proaktivt mildra skadligt modellbeteende. Bästa praxis inkluderar omfattande modellutvärdering för att korrekt bedöma begränsningar, minimera potentiella källor till partiskhet i träningskroppar och tekniker för att minimera osäkert beteende, till exempel genom att lära av mänsklig feedback.


Dokumentera kända svagheter och sårbarheter, såsom partiskhet eller förmåga att producera osäker kod, eftersom i vissa fall ingen grad av förebyggande åtgärder helt kan eliminera risken för oavsiktlig skada. Dokumentationen bör också innehålla modell- och användningsspecifika säkerhetsmetoder.

Genomtänksamt samarbeta med intressenter


Bygg team med olika bakgrunder och be om bred input. Olika perspektiv behövs för att karakterisera och ta itu med hur språkmodeller kommer att fungera i den verkliga världens mångfald, där de om de inte kontrolleras kan förstärka fördomar eller misslyckas med att fungera för vissa grupper.


Offentliggöra lärdomar om LLM säkerhet och missbruk för att möjliggöra utbredd användning och hjälp med branschövergripande iteration av bästa praxis.


Behandla all arbetskraft i språkmodellens leveranskedja med respekt. Till exempel bör leverantörer ha höga standarder för arbetsförhållandena för dem som granskar modellutdata internt och hålla leverantörer till väl specificerade standarder (t.ex. se till att etikettörer kan välja bort en viss uppgift).

Som LLM-leverantörer representerar publicering av dessa principer ett första steg i att tillsammans vägleda säkrare utveckling och implementering av stora språkmodeller. Vi är glada över att fortsätta arbeta med varandra och med andra parter för att identifiera andra möjligheter att minska oavsiktliga skador från och förhindra skadlig användning av språkmodeller.

Ladda ner som PDF

Stöd från andra organisationer

"Även om LLM har mycket lovande, har de betydande inneboende säkerhetsproblem som måste arbetas med. Dessa bästa metoder fungerar som ett viktigt steg för att minimera skadorna av dessa modeller och maximera deras potentiella fördelar."

– Antropisk

"I takt med att stora språkmodeller (LLM) har blivit allt mer kraftfulla och uttrycksfulla, blir riskreducering allt viktigare. Vi välkomnar dessa och andra ansträngningar för att proaktivt försöka minska skador och lyfta fram områden som kräver extra noggrannhet för användare. Principerna som beskrivs här är ett viktigt bidrag till det globala samtalet.”

—John Bansemer, chef för CyberAI Project och Senior Fellow, Center for Security and Emerging Technology (CSET)

"Google bekräftar vikten av omfattande strategier för att analysera modell- och utbildningsdata för att minska riskerna för skada, partiskhet och felaktig framställning. Det är ett tankeväckande steg som dessa AI-leverantörer tagit för att främja principerna och dokumentationen mot AI-säkerhet."

—Google Cloud Platform (GCP)

”Säkerheten för grundmodeller, som stora språkmodeller, är ett växande socialt bekymmer. Vi berömmer Cohere, OpenAI och AI21 Labs för att de tagit ett första steg för att skissera principer på hög nivå för ansvarsfull utveckling och implementering ur modellutvecklarnas perspektiv. Det finns fortfarande mycket arbete kvar att göra, och vi anser att det är viktigt att engagera fler röster från akademin, industrin och civilsamhället för att utveckla mer detaljerade principer och samhällsnormer. Som vi konstaterar i vår senaste blogginlägg, det är inte bara slutresultatet utan processens legitimitet som spelar roll.”

—Percy Liang, chef för Stanford Center for Research on Foundation Models (CRFM)

Bli involverad

Om du utvecklar språkmodeller eller arbetar för att minska deras risker, pratar vi gärna med dig. Vänligen kontakta kl bestpractices@openai.com.

Tidsstämpel:

Mer från OpenAI