Best practices voor het implementeren van taalmodellen PlatoBlockchain Data Intelligence. Verticaal zoeken. Ai.

Best practices voor het implementeren van taalmodellen

Best practices voor het implementeren van taalmodellen

Cohere, OpenAI en AI21 Labs hebben een voorlopige reeks best practices ontwikkeld die toepasbaar zijn op elke organisatie die grote taalmodellen ontwikkelt of implementeert. Computers die kunnen lezen en schrijven zijn er, en ze hebben het potentieel om een โ€‹โ€‹fundamentele impact te hebben op het dagelijks leven. De toekomst van mens-machine-interactie zit vol mogelijkheden en beloftes, maar elke krachtige technologie moet zorgvuldig worden ingezet.

De onderstaande gezamenlijke verklaring vertegenwoordigt een stap in de richting van het opbouwen van een gemeenschap om de mondiale uitdagingen van de vooruitgang op het gebied van AI aan te pakken, en we moedigen andere organisaties die willen deelnemen aan om contact op te nemen.

Gezamenlijke aanbeveling voor implementatie van taalmodellen

We bevelen verschillende hoofdprincipes aan om leveranciers van grote taalmodellen (LLM's) te helpen de risico's van deze technologie te verkleinen, zodat de belofte om de menselijke capaciteiten te vergroten, volledig kan worden waargemaakt.

Hoewel deze principes specifiek zijn ontwikkeld op basis van onze ervaring met het aanbieden van LLM's via een API, hopen we dat ze nuttig zullen zijn ongeacht de releasestrategie (zoals open-sourcing of gebruik binnen een bedrijf). We verwachten dat deze aanbevelingen in de loop van de tijd aanzienlijk zullen veranderen, omdat het commerciรซle gebruik van LLM's en de bijbehorende veiligheidsoverwegingen nieuw en in ontwikkeling zijn. We leren actief over en pakken LLM-beperkingen en mogelijkheden voor misbruik aan, en zullen deze principes en praktijken in de loop van de tijd bijwerken in samenwerking met de bredere gemeenschap.

We delen deze principes in de hoop dat andere LLM-aanbieders ervan kunnen leren en ze kunnen toepassen, en om de publieke discussie over de ontwikkeling en implementatie van LLM te bevorderen.

Misbruik verbieden


Gebruiksrichtlijnen en gebruiksvoorwaarden publiceren van LLM's op een manier die materiรซle schade aan individuen, gemeenschappen en de samenleving verbiedt, zoals door spam, fraude of astroturfing. Gebruiksrichtlijnen moeten ook domeinen specificeren waar LLM-gebruik extra nauwkeurig onderzoek vereist en risicovolle use-cases verbieden die niet geschikt zijn, zoals het classificeren van mensen op basis van beschermde kenmerken.


Bouw systemen en infrastructuur om gebruiksrichtlijnen af โ€‹โ€‹te dwingen. Dit kan snelheidslimieten, inhoudsfiltering, goedkeuring van applicaties voorafgaand aan productietoegang, monitoring op afwijkende activiteit en andere maatregelen omvatten.

Onbedoelde schade beperken


Schadelijk modelgedrag proactief verminderen. Best practices omvatten uitgebreide modelevaluatie om beperkingen goed te beoordelen, potentiรซle bronnen van vooringenomenheid in trainingscorpora te minimaliseren en technieken om onveilig gedrag te minimaliseren, zoals door te leren van menselijke feedback.


Documenteer bekende zwakheden en kwetsbaarheden, zoals vooringenomenheid of het vermogen om onveilige code te produceren, omdat in sommige gevallen geen enkele mate van preventieve actie de kans op onbedoelde schade volledig kan elimineren. Documentatie moet ook model- en use-case-specifieke veiligheidsbest practices bevatten.

Doordacht samenwerken met belanghebbenden


Stel teams samen met verschillende achtergronden en om brede input vragen. Er zijn verschillende perspectieven nodig om te karakteriseren en aan te pakken hoe taalmodellen zullen werken in de diversiteit van de echte wereld, waar ze, als ze niet worden gecontroleerd, vooroordelen kunnen versterken of niet werken voor sommige groepen.


De geleerde lessen met betrekking tot de veiligheid en misbruik van LLM openbaar maken om wijdverbreide acceptatie mogelijk te maken en te helpen bij interindustriรซle iteratie van best practices.


Behandel alle arbeid in de toeleveringsketen van het taalmodel met respect. Aanbieders moeten bijvoorbeeld hoge normen hanteren voor de arbeidsomstandigheden van degenen die modeloutputs intern beoordelen en leveranciers aan goed gespecificeerde normen houden (bijvoorbeeld door ervoor te zorgen dat etiketteerders zich kunnen afmelden voor een bepaalde taak).

Als LLM-providers is het publiceren van deze principes een eerste stap in het gezamenlijk begeleiden van veiligere ontwikkeling en implementatie van grote taalmodellen. We zijn verheugd om met elkaar en met andere partijen te blijven werken om andere mogelijkheden te identificeren om onbedoelde schade door kwaadwillig gebruik van taalmodellen te verminderen en te voorkomen.

Downloaden als PDF

Steun van andere organisaties

โ€œHoewel LLMโ€™s veelbelovend zijn, hebben ze aanzienlijke inherente veiligheidsproblemen waaraan moet worden gewerkt. Deze best practices dienen als een belangrijke stap in het minimaliseren van de schade van deze modellen en het maximaliseren van hun potentiรซle voordelen.โ€

โ€”Antropisch

โ€œNaarmate grote taalmodellen (LLMโ€™s) steeds krachtiger en expressiever zijn geworden, wordt risicobeperking steeds belangrijker. Wij verwelkomen deze en andere inspanningen om proactief te proberen de schade te beperken en gebruikers onder de aandacht te brengen op gebieden die extra zorgvuldigheid vereisen. De hier geschetste principes vormen een belangrijke bijdrage aan het mondiale gesprek.โ€

โ€”John Bansemer, directeur van het CyberAI Project en Senior Fellow, Center for Security and Emerging Technology (CSET)

โ€œGoogle bevestigt het belang van alomvattende strategieรซn bij het analyseren van model- en trainingsgegevens om de risicoโ€™s van schade, vooringenomenheid en verkeerde voorstelling van zaken te beperken. Het is een doordachte stap die deze AI-aanbieders hebben gezet om de principes en documentatie voor AI-veiligheid te promoten.โ€

โ€”Google Cloudplatform (GCP)

โ€œDe veiligheid van funderingsmodellen, zoals grote taalmodellen, is een groeiend maatschappelijk probleem. We prijzen Cohere, OpenAI en AI21 Labs voor het nemen van een eerste stap om principes op hoog niveau te schetsen voor verantwoorde ontwikkeling en implementatie vanuit het perspectief van modelontwikkelaars. Er is nog veel werk aan de winkel en we zijn van mening dat het essentieel is om meer stemmen uit de academische wereld, de industrie en het maatschappelijk middenveld te betrekken om meer gedetailleerde principes en gemeenschapsnormen te ontwikkelen. Zoals we stellen in onze recente blogpost, het is niet alleen het eindresultaat, maar ook de legitimiteit van het proces dat ertoe doet.โ€

โ€”Percy Liang, directeur van het Stanford Center for Research on Foundation Models (CRFM)

Betrokken raken

Als u taalmodellen ontwikkelt of eraan werkt om de risico's ervan te beperken, willen we graag met u praten. Neem contact op via bestpractices@openai.com.

Tijdstempel:

Meer van OpenAI