Bevált gyakorlatok a nyelvi modellek bevezetéséhez PlatoBlockchain Data Intelligence. Függőleges keresés. Ai.

Nyelvi modellek telepítésének bevált gyakorlatai

Nyelvi modellek telepítésének bevált gyakorlatai

Cohere, OpenAI, and AI21 Labs have developed a preliminary set of best practices applicable to any organization developing or deploying large language models. Computers that can read and write are here, and they have the potential to fundamentally impact daily life. The future of human–machine interaction is full of possibility and promise, but any powerful technology needs careful deployment.

The joint statement below represents a step towards building a community to address the global challenges presented by AI progress, and we encourage other organizations who would like to participate to get in touch.

Közös ajánlás a nyelvi modell bevezetéséhez

Számos kulcsfontosságú alapelvet ajánlunk, amelyek segítenek a nagy nyelvi modellek (LLM) szolgáltatóinak csökkenteni e technológia kockázatait annak érdekében, hogy teljes mértékben teljesítsék az emberi képességek bővítésére vonatkozó ígéretét.

Bár ezeket az alapelveket kifejezetten az LLM-ek API-n keresztüli biztosításával kapcsolatos tapasztalataink alapján dolgoztuk ki, reméljük, hogy hasznosak lesznek a kiadási stratégiától függetlenül (például nyílt forráskódú vagy vállalaton belüli használat). Arra számítunk, hogy ezek az ajánlások idővel jelentősen megváltoznak, mivel az LLM-ek kereskedelmi felhasználása és a kapcsolódó biztonsági megfontolások újak és fejlődőben vannak. Aktívan tanulunk és kezelünk az LLM korlátozásait és a visszaélés lehetőségeit, és idővel frissítjük ezeket az elveket és gyakorlatokat a szélesebb közösséggel együttműködve.

Megosztjuk ezeket az alapelveket abban a reményben, hogy más LLM-szolgáltatók tanulhatnak belőlük és átvehetik őket, valamint elősegíthetjük az LLM fejlesztésével és bevezetésével kapcsolatos nyilvános vitát.

Tiltsa meg a visszaélést


Használati irányelvek és használati feltételek közzététele az LLM-eket oly módon, hogy tiltja az egyéneknek, közösségeknek és a társadalomnak okozott anyagi károkat, például spam, csalás vagy asztroturfing révén. A használati irányelveknek meg kell határozniuk azokat a tartományokat is, ahol az LLM-használat fokozott ellenőrzést igényel, és meg kell tiltani a nem megfelelő, magas kockázatú felhasználási eseteket, például az emberek védett tulajdonságok alapján történő osztályozását.


Építsen rendszereket és infrastruktúrát a használati irányelvek érvényesítéséhez. Ez magában foglalhatja a sebességkorlátozást, a tartalomszűrést, az alkalmazások éles hozzáférés előtti jóváhagyását, a rendellenes tevékenységek figyelését és egyéb mérsékléseket.

Csökkentse a nem szándékos károkat


Proaktívan mérsékelje a modell káros viselkedését. A legjobb gyakorlatok közé tartozik az átfogó modellértékelés a korlátok megfelelő felméréséhez, a lehetséges torzítási források minimalizálása a képzési korpuszokban, valamint a nem biztonságos viselkedés minimalizálására szolgáló technikák, például az emberi visszajelzésekből való tanulás.


Dokumentálja az ismert gyengeségeket és sebezhetőségeket, mint például az elfogultság vagy a nem biztonságos kód előállításának képessége, mivel bizonyos esetekben semmilyen fokú megelőző intézkedés sem tudja teljesen kiküszöbölni a nem szándékos károk lehetőségét. A dokumentációnak tartalmaznia kell a modell- és használati esetspecifikus biztonsági bevált gyakorlatokat is.

Átgondolt együttműködés az érdekelt felekkel


Építs csapatokat változatos háttérrel és kérjen széles körű véleményt. Különböző perspektívákra van szükség ahhoz, hogy jellemezzük és kezeljük, hogyan működnek a nyelvi modellek a valós világ sokszínűségében, ahol, ha nem ellenőrzik, megerősíthetik az elfogultságokat, vagy egyes csoportok esetében nem működnek.


Nyilvánosan tegye közzé az LLM biztonságával és visszaéléseivel kapcsolatos tanulságokat annak érdekében, hogy lehetővé tegyük a bevált gyakorlatok széles körű elterjedését, és elősegítsük az ágazatok közötti iterációt.


Tisztelettel kezelje a nyelvi modell ellátási láncában szereplő összes munkaerőt. Például a szolgáltatóknak magas színvonalúaknak kell lenniük a modellkimeneteket házon belül felülvizsgálók munkakörülményei tekintetében, és a szállítókat jól meghatározott szabványokhoz kell kötniük (pl. biztosítaniuk kell, hogy a címkézők ki tudjanak lépni egy adott feladatból).

LLM-szolgáltatóként ezen alapelvek közzététele az első lépést jelenti a biztonságosabb, nagy nyelvi modellek fejlesztésének és bevezetésének közös irányításában. Izgatottan várjuk, hogy továbbra is együttműködjünk egymással és más felekkel annak érdekében, hogy más lehetőségeket találjunk a nyelvi modellek rosszindulatú használatából eredő nem szándékos károk csökkentésére és megelőzésére.

Letöltés PDF formátumban

Support from other organizations

“While LLMs hold a lot of promise, they have significant inherent safety issues which need to be worked on. These best practices serve as an important step in minimizing the harms of these models and maximizing their potential benefits.”

—Anthropic

“As large language models (LLMs) have become increasingly powerful and expressive, risk mitigation becomes increasingly important. We welcome these and other efforts to proactively seek to mitigate harms and highlight to users areas requiring extra diligence. The principles outlined here are an important contribution to the global conversation.”

—John Bansemer, Director of the CyberAI Project and Senior Fellow, Center for Security and Emerging Technology (CSET)

“Google affirms the importance of comprehensive strategies in analyzing model and training data to mitigate the risks of harm, bias, and misrepresentation. It is a thoughtful step taken by these AI providers to promote the principles and documentation towards AI safety.”

—Google Cloud Platform (GCP)

“The safety of foundation models, such as large language models, is a growing social concern. We commend Cohere, OpenAI, and AI21 Labs for taking a first step to outline high-level principles for responsible development and deployment from the perspective of model developers. There is still much work to be done, and we believe it is essential to engage more voices from academia, industry, and civil society to develop more detailed principles and community norms. As we state in our recent blogbejegyzés, it is not just the end result but the legitimacy of the process that matters.”

—Percy Liang, Director of the Stanford Center for Research on Foundation Models (CRFM)

Részt venni

If you’re developing language models or are working to mitigate their risks, we’d love to talk with you. Please reach out at bestpractices@openai.com.

Időbélyeg:

Még több OpenAI