Các phương pháp hay nhất để triển khai mô hình ngôn ngữ Trí tuệ dữ liệu PlatoBlockchain. Tìm kiếm dọc. Ái.

Các phương pháp hay nhất để triển khai mô hình ngôn ngữ

Các phương pháp hay nhất để triển khai mô hình ngôn ngữ

Cohere, OpenAI và AI21 Labs đã phát triển một bộ phương pháp thực hành tốt nhất sơ bộ có thể áp dụng cho bất kỳ tổ chức nào đang phát triển hoặc triển khai các mô hình ngôn ngữ lớn. Máy tính có thể đọc và viết đã có mặt ở đây và chúng có tiềm năng tác động cơ bản đến cuộc sống hàng ngày. Tương lai của sự tương tác giữa người và máy đầy tiềm năng và hứa hẹn, nhưng bất kỳ công nghệ mạnh mẽ nào cũng cần được triển khai cẩn thận.

Tuyên bố chung dưới đây thể hiện một bước hướng tới việc xây dựng một cộng đồng nhằm giải quyết các thách thức toàn cầu do tiến bộ AI đặt ra và chúng tôi khuyến khích các tổ chức khác muốn tham gia hãy liên hệ.

Khuyến nghị chung về triển khai mô hình ngôn ngữ

Chúng tôi đang đề xuất một số nguyên tắc chính để giúp các nhà cung cấp mô hình ngôn ngữ lớn (LLM) giảm thiểu rủi ro của công nghệ này nhằm đạt được đầy đủ lời hứa về việc nâng cao năng lực của con người.

Mặc dù các nguyên tắc này được phát triển đặc biệt dựa trên kinh nghiệm của chúng tôi trong việc cung cấp LLM thông qua API, chúng tôi hy vọng chúng sẽ hữu ích bất kể chiến lược phát hành (chẳng hạn như nguồn mở hoặc sử dụng trong công ty). Chúng tôi hy vọng những khuyến nghị này sẽ thay đổi đáng kể theo thời gian vì việc sử dụng LLM thương mại và các cân nhắc về an toàn đi kèm là mới và đang phát triển. Chúng tôi đang tích cực tìm hiểu và giải quyết các hạn chế cũng như con đường lạm dụng LLM, đồng thời sẽ cập nhật các nguyên tắc và thực tiễn này với sự cộng tác của cộng đồng rộng lớn hơn theo thời gian.

Chúng tôi chia sẻ những nguyên tắc này với hy vọng rằng các nhà cung cấp LLM khác có thể học hỏi và áp dụng chúng, đồng thời thúc đẩy thảo luận công khai về việc phát triển và triển khai LLM.

Cấm lạm dụng


Xuất bản hướng dẫn sử dụng và điều khoản sử dụng của LLM theo cách nghiêm cấm gây tổn hại vật chất cho cá nhân, cộng đồng và xã hội, chẳng hạn như thông qua thư rác, lừa đảo hoặc lướt ván buồm. Nguyên tắc sử dụng cũng phải chỉ định các miền mà việc sử dụng LLM yêu cầu phải xem xét kỹ lưỡng hơn và cấm các trường hợp sử dụng có rủi ro cao không phù hợp, chẳng hạn như phân loại mọi người dựa trên các đặc điểm được bảo vệ.


Xây dựng hệ thống và cơ sở hạ tầng để thực thi các nguyên tắc sử dụng. Điều này có thể bao gồm giới hạn tốc độ, lọc nội dung, phê duyệt ứng dụng trước khi truy cập sản xuất, giám sát hoạt động bất thường và các biện pháp giảm nhẹ khác.

Giảm nhẹ tác hại ngoài ý muốn


Chủ động giảm thiểu hành vi mô hình có hại. Các phương pháp thực hành tốt nhất bao gồm đánh giá mô hình toàn diện để đánh giá đúng các hạn chế, giảm thiểu các nguồn sai lệch tiềm ẩn trong cơ sở đào tạo và các kỹ thuật để giảm thiểu hành vi không an toàn, chẳng hạn như thông qua học hỏi từ phản hồi của con người.


Ghi lại những điểm yếu và lỗ hổng đã biết, chẳng hạn như sai lệch hoặc khả năng tạo ra mã không an toàn, vì trong một số trường hợp, không có hành động phòng ngừa nào ở mức độ nào có thể loại bỏ hoàn toàn khả năng gây tổn hại ngoài ý muốn. Tài liệu cũng nên bao gồm các phương pháp thực hành tốt nhất về an toàn cho từng trường hợp cụ thể và mô hình.

Hợp tác chu đáo với các bên liên quan


Xây dựng đội ngũ có nền tảng đa dạng và thu hút ý kiến ​​đóng góp rộng rãi. Cần có những quan điểm đa dạng để mô tả và giải quyết cách các mô hình ngôn ngữ sẽ hoạt động trong sự đa dạng của thế giới thực, nơi nếu không được kiểm soát, chúng có thể củng cố những thành kiến ​​hoặc không hiệu quả đối với một số nhóm.


Tiết lộ công khai các bài học kinh nghiệm về an toàn và lạm dụng LLM để cho phép áp dụng rộng rãi và trợ giúp việc lặp lại các phương pháp hay nhất giữa các ngành.


Đối xử tôn trọng với tất cả lao động trong chuỗi cung ứng mô hình ngôn ngữ. Ví dụ: nhà cung cấp phải có tiêu chuẩn cao về điều kiện làm việc của những người đánh giá kết quả đầu ra của mô hình nội bộ và yêu cầu nhà cung cấp tuân thủ các tiêu chuẩn được xác định rõ ràng (ví dụ: đảm bảo người dán nhãn có thể chọn không tham gia một nhiệm vụ nhất định).

Với tư cách là nhà cung cấp LLM, việc xuất bản các nguyên tắc này thể hiện bước đầu tiên trong việc hợp tác hướng dẫn phát triển và triển khai mô hình ngôn ngữ lớn an toàn hơn. Chúng tôi rất vui được tiếp tục làm việc với nhau và với các bên khác để xác định các cơ hội khác nhằm giảm thiểu tác hại ngoài ý muốn và ngăn chặn việc sử dụng mô hình ngôn ngữ với mục đích xấu.

Tải về dưới dạng PDF

Hỗ trợ từ các tổ chức khác

“Mặc dù LLM có nhiều hứa hẹn nhưng chúng có những vấn đề an toàn cố hữu đáng kể cần được giải quyết. Những phương pháp thực hành tốt nhất này đóng vai trò là một bước quan trọng trong việc giảm thiểu tác hại của những mô hình này và tối đa hóa lợi ích tiềm năng của chúng.”

—Nhân loại

“Khi các mô hình ngôn ngữ lớn (LLM) ngày càng trở nên mạnh mẽ và có tính biểu cảm thì việc giảm thiểu rủi ro ngày càng trở nên quan trọng. Chúng tôi hoan nghênh những nỗ lực này và những nỗ lực khác nhằm chủ động tìm cách giảm thiểu tác hại và nêu bật những lĩnh vực mà người dùng cần chú ý nhiều hơn. Các nguyên tắc được nêu ở đây là một đóng góp quan trọng cho cuộc đối thoại toàn cầu.”

—John Bansemer, Giám đốc Dự án CyberAI và Thành viên cấp cao, Trung tâm An ninh và Công nghệ mới nổi (CSET)

“Google khẳng định tầm quan trọng của các chiến lược toàn diện trong việc phân tích mô hình và dữ liệu đào tạo nhằm giảm thiểu rủi ro gây tổn hại, thiên vị và xuyên tạc. Đây là một bước đi chu đáo được các nhà cung cấp AI này thực hiện nhằm thúc đẩy các nguyên tắc và tài liệu hướng tới sự an toàn của AI.”

—Nền tảng đám mây của Google (GCP)

“Sự an toàn của các mô hình nền tảng, chẳng hạn như các mô hình ngôn ngữ lớn, đang là mối quan tâm ngày càng tăng của xã hội. Chúng tôi khen ngợi Cohere, OpenAI và AI21 Labs vì đã thực hiện bước đầu tiên trong việc phác thảo các nguyên tắc cấp cao để phát triển và triển khai có trách nhiệm từ quan điểm của các nhà phát triển mô hình. Vẫn còn nhiều việc phải làm và chúng tôi tin rằng điều cần thiết là phải thu hút nhiều tiếng nói hơn từ giới học thuật, ngành công nghiệp và xã hội dân sự để phát triển các nguyên tắc và chuẩn mực cộng đồng chi tiết hơn. Như chúng tôi đã nêu trong báo cáo gần đây của chúng tôi blog đăng bài, điều quan trọng không chỉ là kết quả cuối cùng mà còn là tính hợp pháp của quá trình.”

—Percy Liang, Giám đốc Trung tâm Nghiên cứu Mô hình Nền tảng Stanford (CRFM)

Tham gia

Nếu bạn đang phát triển các mô hình ngôn ngữ hoặc đang nỗ lực giảm thiểu rủi ro của chúng, chúng tôi rất vui được trò chuyện với bạn. Vui lòng liên hệ tại bestpractices@openai.com.

Dấu thời gian:

Thêm từ OpenAI