Praktik Terbaik untuk Menyebarkan Model Bahasa Intelijen Data PlatoBlockchain. Pencarian Vertikal. ai.

Praktik Terbaik untuk Menerapkan Model Bahasa

Praktik Terbaik untuk Menerapkan Model Bahasa

Cohere, OpenAI, dan AI21 Labs telah mengembangkan serangkaian praktik terbaik awal yang berlaku untuk organisasi mana pun yang mengembangkan atau menerapkan model bahasa besar. Komputer yang dapat membaca dan menulis ada di sini, dan memiliki potensi untuk memengaruhi kehidupan sehari-hari secara mendasar. Masa depan interaksi manusia-mesin penuh dengan kemungkinan dan janji, tetapi teknologi canggih apa pun membutuhkan penerapan yang cermat.

Pernyataan bersama di bawah ini merupakan langkah menuju pembangunan komunitas untuk mengatasi tantangan global yang dihadirkan oleh kemajuan AI, dan kami mendorong organisasi lain yang ingin berpartisipasi untuk menghubungi.

Rekomendasi Bersama untuk Penerapan Model Bahasa

Kami merekomendasikan beberapa prinsip utama untuk membantu penyedia model bahasa besar (LLM) mengurangi risiko teknologi ini untuk mencapai janji penuhnya untuk meningkatkan kemampuan manusia.

Meskipun prinsip-prinsip ini dikembangkan secara khusus berdasarkan pengalaman kami dalam menyediakan LLM melalui API, kami berharap mereka akan berguna terlepas dari strategi rilis (seperti sumber terbuka atau penggunaan dalam perusahaan). Kami berharap rekomendasi ini berubah secara signifikan dari waktu ke waktu karena penggunaan komersial LLM dan pertimbangan keselamatan yang menyertainya masih baru dan berkembang. Kami secara aktif mempelajari dan mengatasi keterbatasan LLM dan jalan untuk penyalahgunaan, dan akan memperbarui prinsip dan praktik ini bekerja sama dengan komunitas yang lebih luas dari waktu ke waktu.

Kami membagikan prinsip-prinsip ini dengan harapan bahwa penyedia LLM lain dapat belajar dari dan mengadopsinya, dan untuk memajukan diskusi publik tentang pengembangan dan penerapan LLM.

Melarang penyalahgunaan


Publikasikan pedoman penggunaan dan ketentuan penggunaan LLM dengan cara yang melarang bahaya materi bagi individu, komunitas, dan masyarakat seperti melalui spam, penipuan, atau astroturfing. Pedoman penggunaan juga harus menentukan domain di mana penggunaan LLM memerlukan pengawasan ekstra dan melarang kasus penggunaan berisiko tinggi yang tidak sesuai, seperti mengklasifikasikan orang berdasarkan karakteristik yang dilindungi.


Bangun sistem dan infrastruktur untuk menegakkan pedoman penggunaan. Ini mungkin termasuk batas tingkat, pemfilteran konten, persetujuan aplikasi sebelum akses produksi, pemantauan aktivitas anomali, dan mitigasi lainnya.

Mengurangi kerusakan yang tidak disengaja


Secara proaktif mengurangi perilaku model yang berbahaya. Praktik terbaik mencakup evaluasi model komprehensif untuk menilai batasan dengan tepat, meminimalkan sumber bias potensial dalam pelatihan korpora, dan teknik untuk meminimalkan perilaku tidak aman seperti melalui pembelajaran dari umpan balik manusia.


Dokumentasikan kelemahan dan kerentanan yang diketahui, seperti bias atau kemampuan untuk menghasilkan kode yang tidak aman, seperti dalam beberapa kasus tidak ada tingkat tindakan pencegahan yang dapat sepenuhnya menghilangkan potensi bahaya yang tidak diinginkan. Dokumentasi juga harus mencakup model dan praktik terbaik keselamatan khusus kasus penggunaan.

Berkolaborasi secara serius dengan pemangku kepentingan


Bangun tim dengan beragam latar belakang dan meminta masukan yang luas. Perspektif yang beragam diperlukan untuk mengkarakterisasi dan membahas bagaimana model bahasa akan beroperasi dalam keragaman dunia nyata, di mana jika tidak dicentang mereka dapat memperkuat bias atau gagal bekerja untuk beberapa kelompok.


Mengungkapkan pelajaran yang dipetik secara publik mengenai keamanan dan penyalahgunaan LLM untuk memungkinkan adopsi yang luas dan membantu dengan iterasi lintas industri pada praktik terbaik.


Perlakukan semua tenaga kerja dalam rantai pasokan model bahasa dengan hormat. Misalnya, penyedia harus memiliki standar tinggi untuk kondisi kerja dari mereka yang meninjau keluaran model in-house dan menahan vendor dengan standar yang ditentukan dengan baik (misalnya, memastikan pemberi label dapat memilih keluar dari tugas yang diberikan).

Sebagai penyedia LLM, menerbitkan prinsip-prinsip ini merupakan langkah pertama dalam memandu pengembangan dan penerapan model bahasa besar yang lebih aman secara kolaboratif. Kami bersemangat untuk terus bekerja sama satu sama lain dan dengan pihak lain untuk mengidentifikasi peluang lain guna mengurangi bahaya yang tidak disengaja dan mencegah penggunaan model bahasa yang berbahaya.

Download sebagai PDF

Dukungan dari organisasi lain

โ€œSementara LLM memiliki banyak janji, mereka memiliki masalah keamanan inheren yang signifikan yang perlu ditangani. Praktik terbaik ini berfungsi sebagai langkah penting dalam meminimalkan bahaya model ini dan memaksimalkan potensi manfaatnya.โ€

โ€”Antropis

โ€œSeiring model bahasa besar (LLM) menjadi semakin kuat dan ekspresif, mitigasi risiko menjadi semakin penting. Kami menyambut baik upaya ini dan upaya lainnya untuk secara proaktif berupaya mengurangi bahaya dan menyoroti area pengguna yang membutuhkan ketekunan ekstra. Prinsip-prinsip yang diuraikan di sini merupakan kontribusi penting bagi percakapan global.โ€

โ€”John Bansemer, Direktur Proyek CyberAI dan Senior Fellow, Center for Security and Emerging Technology (CSET)

โ€œGoogle menegaskan pentingnya strategi komprehensif dalam menganalisis model dan data pelatihan untuk mengurangi risiko bahaya, bias, dan pernyataan yang salah. Ini adalah langkah bijaksana yang diambil oleh penyedia AI ini untuk mempromosikan prinsip-prinsip dan dokumentasi menuju keamanan AI.โ€

โ€”Google Cloud Platform (GCP)

โ€œKeamanan model fondasi, seperti model bahasa besar, adalah masalah sosial yang berkembang. Kami memuji Cohere, OpenAI, dan AI21 Labs karena telah mengambil langkah pertama untuk menguraikan prinsip-prinsip tingkat tinggi untuk pengembangan dan penerapan yang bertanggung jawab dari perspektif pengembang model. Masih banyak pekerjaan yang harus dilakukan, dan kami percaya sangat penting untuk melibatkan lebih banyak suara dari akademisi, industri, dan masyarakat sipil untuk mengembangkan prinsip dan norma masyarakat yang lebih rinci. Seperti yang kami nyatakan baru-baru ini posting blog, bukan hanya hasil akhir tetapi legitimasi proses yang penting.โ€

โ€”Percy Liang, Direktur Stanford Center for Research on Foundation Models (CRFM)

Terlibat

Jika Anda sedang mengembangkan model bahasa atau sedang berupaya mengurangi risikonya, kami ingin berbicara dengan Anda. Silakan hubungi di praktik terbaik@openai.com.

Stempel Waktu:

Lebih dari OpenAI