ChatGPT: Membuat semuanya lebih aman (Simon Thompson)

ChatGPT: Membuat semuanya lebih aman (Simon Thompson)

ChatGPT: Membuat segalanya lebih aman (Simon Thompson) PlatoBlockchain Data Intelligence. Pencarian Vertikal. Ai.

In bagian satu dari blog ini Saya memeriksa teknologi baru dan kuat yaitu ChatGPT. Di bagian kedua dan terakhir ini, saya mengeksplorasi praktik terbaik apa yang diperlukan untuk membuat penggunaannya seaman dan seaman mungkin.

Cukup jelas bahwa kami tidak akan memasukkan kembali ChatGPT ke dalam botol. Teknik yang digunakan untuk membuatnya sudah terkenal, dan meskipun jumlah komputasi yang dibutuhkan tampaknya heroik sekarang, dalam waktu dekat ini akan jauh lebih mudah diakses. Bahkan jika harga komputasi tidak turun drastis dalam waktu dekat, jenis komputasi yang diperlukan untuk membuat GPT3.5 sudah tersedia untuk banyak aktor negara, dan berbagai aktor non-negara.

Google telah mengumumkan 'Bard' berdasarkan teknologi LAMDA-nya yang begitu menarik sehingga seorang insinyur internal menjadi yakin bahwa ia memiliki jiwa dan Deepmind telah mengembangkan chatbot yang disebut 'Sparrow' yang 'diklaim oleh beberapa orang' secara teknis lebih unggul dari ChatGPT.

Bahaya besar sepertinya tidak akan datang dari perusahaan super canggih seperti Alphabet. Perusahaan kecil dengan sikap 'bergerak cepat dan menghancurkan sesuatu' cenderung kreatif dan suka berpetualang dengan ide aplikasi mereka. Tetapi kerugian yang sangat nyata bagi orang yang sangat nyata mungkin terjadi dengan sistem semacam ini, dan ini dapat dengan mudah dan cepat diimplementasikan oleh tim kecil yang tidak ahli.

Lima tips teratas untuk membuat ChatGPT lebih aman

Meskipun ada banyak jalur untuk 'tidak' dan hanya satu untuk 'ya', masih banyak aplikasi yang akan mendapatkan kualifikasi masuk akal. Tapi ini tidak akan membuat mereka aman. Untuk memiliki kepercayaan pada aplikasi yang didukung ChatGPT, disarankan juga untuk menerapkan langkah-langkah berikut.

  1. Seharusnya tidak ada penipuan tentang apa yang berinteraksi dengan pengguna. Anda tidak dapat memberikan informed consent jika Anda tidak diberitahu. Saleema Amershi et al [1] telah menerbitkan pedoman yang sangat baik untuk interaksi untuk sistem AI. Yang penting, ini menyediakan struktur untuk mempertimbangkan interaksi sepanjang siklus interaksi pengguna. Panduan tersebut mencakup cara menjelaskan kepada pengguna tentang apa yang berinteraksi dengan mereka dan cara menginstruksikan mereka tentang apa yang diharapkan dari mereka. Panduan Amershi meluas ke seluruh interaksi, mengelola kegagalan dan lembur saat sistem menjadi 'bisnis seperti biasa'.
  2. Pengguna harus memiliki pilihan untuk tidak berinteraksi dengan sistem. Opsi nyata โ€“ misalnya saluran kontak alternatif.
  3. Harus ada penilaian dampak yang melekat pada setiap aplikasi. Taruh di situs web seperti yang Anda lakukan pada file robots.txt, atau seperti yang Anda tambahkan lisensi ke kode sumber Anda. Proses AIA Kanada menawarkan model untuk hal semacam ini, tetapi beberapa pertanyaan mendasar adalah awal yang baik. Siapa yang akan sakit jika itu berfungsi sebagaimana dimaksud? Siapa yang akan dirugikan jika chatbot salah? Adakah yang bisa mengetahui jika chatbot salah, dan dapatkah mereka menghentikannya dan memperbaiki situasinya jika demikian?
  4. Jika sistem Anda dapat memiliki efek buruk pada orang lain, maka harus ada pemantauan dan pendataan tentang apa yang dilakukan sistem dan bagaimana perilakunya. Ini harus dipertahankan sedemikian rupa untuk memungkinkan penyelidikan forensik dari perilaku sistem, jika diperlukan.
  5. Jika Anda tidak secara pribadi dan langsung bertanggung jawab atas sistem, proses tata kelola yang terdokumentasi dengan jelas harus dikembangkan dan dipelihara. Bagian dari ini harus menjelaskan bagaimana pengguna dapat meminta bantuan, dan bagaimana mereka dapat mengeluh tentang sistem. Ini juga harus menjelaskan proses apa yang harus dilakukan untuk mengatasi kesulitan dan keluhan pengguna.

Potensi untuk nilai besar dalam banyak kasus penggunaan

Dengan kontrol dan proses yang benar, model bahasa baru yang besar seperti ChatGPT akan memberikan nilai yang besar dalam banyak kasus penggunaan, meskipun dengan kontrol dan pemeriksaan penting, untuk memastikan pengguna dan pengguna akhir terlindungi dari kesalahpahaman.

  1. Amersi, Saleema. 'Pedoman untuk Interaksi Manusia-AI.' Konferensi CHI tentang faktor manusia dalam sistem komputasi. CHI, 2019. 1โ€“13.

Stempel Waktu:

Lebih dari Fintextra