언어 모델 배포 모범 사례 PlatoBlockchain 데이터 인텔리전스. 수직 검색. 일체 포함.

언어 모델 배포 모범 사례

언어 모델 배포 모범 사례

Cohere, OpenAI 및 AI21 Labs는 대규모 언어 모델을 개발하거나 배포하는 모든 조직에 적용할 수 있는 예비 모범 사례 세트를 개발했습니다. 읽고 쓸 수 있는 컴퓨터가 여기에 있으며, 일상생활에 근본적으로 영향을 미칠 수 있는 잠재력을 가지고 있습니다. 인간-기계 상호 작용의 미래는 가능성과 가능성으로 가득 차 있지만 강력한 기술은 신중한 배포가 필요합니다.

아래 공동 성명은 AI 발전으로 인해 발생하는 글로벌 과제를 해결하기 위한 커뮤니티 구축을 향한 단계를 나타내며, 참여를 원하는 다른 조직의 연락을 권장합니다.

언어 모델 배포를 위한 공동 권장 사항

우리는 LLM(대형 언어 모델) 공급자가 인간의 능력을 향상시키겠다는 완전한 약속을 달성하기 위해 이 기술의 위험을 완화하는 데 도움이 되는 몇 가지 핵심 원칙을 권장합니다.

이러한 원칙은 API를 통해 LLM을 제공한 경험을 기반으로 특별히 개발되었지만 릴리스 전략(예: 오픈 소싱 또는 회사 내 사용)에 관계없이 유용하기를 바랍니다. LLM의 상업적 사용과 그에 따른 안전 고려 사항이 새롭고 진화하기 때문에 이러한 권장 사항은 시간이 지남에 따라 크게 변경될 것으로 예상합니다. 우리는 LLM 제한 사항과 오용 방법에 대해 적극적으로 배우고 해결하고 있으며 시간이 지남에 따라 더 넓은 커뮤니티와 협력하여 이러한 원칙과 관행을 업데이트할 것입니다.

우리는 다른 LLM 공급자가 이 원칙을 배우고 채택하고 LLM 개발 및 배포에 대한 공개 토론을 진행하기를 희망하여 이러한 원칙을 공유하고 있습니다.

오용 금지


이용 가이드라인 및 이용약관 게시 스팸, 사기 또는 아스트로터핑을 통해 개인, 커뮤니티 및 사회에 대한 물질적 피해를 금지하는 방식으로 LLM을 차단합니다. 사용 지침은 또한 LLM 사용에 추가 조사가 필요한 영역을 지정하고 보호되는 특성을 기반으로 사람을 분류하는 것과 같이 적절하지 않은 고위험 사용 사례를 금지해야 합니다.


사용 지침을 시행하기 위한 시스템 및 인프라 구축. 여기에는 속도 제한, 콘텐츠 필터링, 프로덕션 액세스 전 애플리케이션 승인, 비정상적인 활동 모니터링 및 기타 완화가 포함될 수 있습니다.

의도하지 않은 피해 완화


유해한 모델 동작을 사전에 완화. 모범 사례에는 제한 사항을 적절하게 평가하기 위한 포괄적인 모델 평가, 학습 말뭉치의 잠재적인 편향 요소 최소화, 인간 피드백 학습 등을 통해 안전하지 않은 행동을 최소화하는 기술이 포함됩니다.


알려진 약점 및 취약점 문서화, 어떤 경우에는 예방 조치가 의도하지 않은 피해의 가능성을 완전히 제거할 수 없기 때문에 편향이나 불안정한 코드를 생성하는 능력과 같은 것입니다. 문서에는 모델 및 사용 사례별 안전 모범 사례도 포함되어야 합니다.

이해 관계자와 신중하게 협업


다양한 배경을 가진 팀 구성 그리고 폭넓은 의견을 구하십시오. 언어 모델이 실제 세계의 다양성에서 어떻게 작동하는지 특성화하고 다루기 위해서는 다양한 관점이 필요합니다. 확인하지 않으면 편견이 강화되거나 일부 그룹에서 작동하지 않을 수 있습니다.


LLM 안전 및 오용에 관해 배운 교훈을 공개적으로 공개합니다. 광범위한 채택을 가능하게 하고 모범 사례에 대한 업계 간 반복을 지원합니다.


언어 모델 공급망의 모든 노동을 존중합니다.. 예를 들어, 제공자는 내부에서 모델 출력을 검토하는 작업 조건에 대해 높은 표준을 가져야 하고 공급업체가 잘 지정된 표준을 준수하도록 해야 합니다(예: 라벨러가 주어진 작업에서 제외할 수 있도록 보장).

LLM 제공자로서 이러한 원칙을 게시하는 것은 보다 안전한 대형 언어 모델 개발 및 배포를 공동으로 안내하는 첫 번째 단계를 나타냅니다. 우리는 언어 모델의 의도하지 않은 피해를 줄이고 악의적인 사용을 방지할 수 있는 다른 기회를 식별하기 위해 서로 및 다른 당사자와 계속 협력하게 된 것을 기쁘게 생각합니다.

다운로드 PDF로

다른 조직의 지원

“LLM은 많은 가능성을 가지고 있지만, 해결해야 할 중요한 본질적인 안전 문제가 있습니다. 이러한 모범 사례는 이러한 모델의 피해를 최소화하고 잠재적인 이점을 극대화하는 중요한 단계 역할을 합니다.”

—인류

“LLM(대형 언어 모델)이 점점 더 강력해지고 표현력이 풍부해지면서 위험 완화가 점점 더 중요해지고 있습니다. 우리는 피해를 완화하고 추가적인 노력이 필요한 사용자 영역을 강조하기 위해 적극적으로 노력하는 이러한 노력과 기타 노력을 환영합니다. 여기에 설명된 원칙은 글로벌 대화에 중요한 기여를 합니다.”

—John Bansemer, CyberAI 프로젝트 책임자이자 CSET(보안 및 신흥 기술 센터) 선임 연구원

“Google은 피해, 편견, 허위 진술의 위험을 완화하기 위해 모델 및 교육 데이터를 분석하는 데 있어 포괄적인 전략의 중요성을 확인합니다. 이는 AI 안전에 대한 원칙과 문서를 홍보하기 위해 AI 제공업체가 취하는 사려 깊은 조치입니다.”

—구글 클라우드 플랫폼(GCP)

“대규모 언어 모델 등 기반 모델의 안전성에 대한 사회적 관심이 높아지고 있습니다. 모델 개발자의 관점에서 책임감 있는 개발 및 배포를 위한 높은 수준의 원칙을 설명하는 첫 번째 단계를 수행한 Cohere, OpenAI 및 AI21 Labs에 감사드립니다. 아직 해야 할 일이 많이 남아 있으며, 우리는 학계, 업계, 시민 사회의 더 많은 목소리를 참여시켜 보다 상세한 원칙과 커뮤니티 규범을 개발하는 것이 필수적이라고 믿습니다. 우리가 최근에 밝혔듯이 블로그 게시물, 중요한 것은 최종 결과가 아니라 프로세스의 정당성입니다.”

—Percy Liang, 스탠포드 기초 모델 연구 센터(CRFM) 소장

참여하다

언어 모델을 개발 중이거나 위험을 완화하기 위해 노력하고 계시다면 우리는 여러분과 이야기를 나누고 싶습니다. 다음 주소로 문의해 주세요. bestpractices@openai.com.

타임 스탬프 :

더보기 OpenAI