CCC Menanggapi Permintaan NTIA atas Informasi tentang Model AI Dual Use Foundation dengan Bobot Model yang Tersedia Secara Luas » Blog CCC

CCC Menanggapi Permintaan NTIA atas Informasi tentang Model AI Dual Use Foundation dengan Bobot Model yang Tersedia Secara Luas » Blog CCC

Pekan lalu, CCC menanggapi pernyataan Administrasi Telekomunikasi dan Informasi Nasional Permintaan Informasi tentang Model Kecerdasan Buatan Dual Use Foundation dengan Bobot Model yang Tersedia Secara Luas. Daniel Lopresti dari CCC (Ketua CCC dan Universitas Lehigh) dan David Danks (Komite Eksekutif CCC dan Universitas California, San Diego) membantu penulis tanggapan ini bersama dengan beberapa anggota komunitas komputasi lainnya. Markus Buehler (Massachusetts Institute of Technology) dan Duncan Watson-Parris (University of California, San Diego), yang keduanya berbicara di panel AAAS yang disponsori CCC tahun ini, berjudul, AI Generatif dalam Sains: Janji dan Kesalahan, keduanya berkontribusi terhadap respons RFI, bersama dengan Casey Fiesler (Universitas Colorado, Boulder), yang menghadiri CCC Masa Depan Penelitian Teknologi Sosial lokakarya pada bulan November.

Dalam tanggapannya, penulis berfokus pada beberapa pertanyaan spesifik dari RFI, salah satunya menanyakan bagaimana risiko yang terkait dengan penyediaan bobot model secara luas dibandingkan dengan risiko yang terkait dengan bobot model non-publik. Para penulis menjawab bahwa sebagian besar risiko yang terkait dengan model generatif diperburuk secara minimal dengan menyediakan bobot model secara luas. Sebagian besar risiko yang terkait dengan model generatif melekat pada model ini, karena kemampuannya dalam menghasilkan sejumlah besar konten yang dapat dipercaya dengan cepat berdasarkan masukan pengguna dan area penerapannya yang hampir tidak terbatas. Membuat bobot model tersedia untuk umum tidak mempengaruhi fungsi model generatif, sehingga saat ini hanya ada sedikit bukti bahwa membuat bobot model tersedia secara luas akan menimbulkan risiko tambahan yang signifikan melebihi apa yang sudah bisa dilakukan dengan sistem berpemilik atau sistem tertutup. Salah satu risiko yang berpotensi diperburuk jika bobot untuk model kepemilikan tersedia secara luas adalah kemungkinan tereksposnya data pelatihan. Kecil kemungkinannya bahwa bobot model dapat direkayasa balik untuk memaparkan data pelatihan, namun hal ini tidak terbukti mustahil secara matematis. Namun, dalam tanggapan kami, kami menekankan bahwa, karena model generatif kemungkinan akan terus banyak digunakan oleh masyarakat umum, risiko terbesar, menurut pendapat kami, berasal dari tidak tersedianya bobot model landasan yang representatif secara terbuka. Menolak akses para peneliti dan anggota masyarakat yang berkepentingan terhadap beberapa bobot model untuk model kepemilikan akan menghalangi masyarakat untuk mendapatkan pemahaman yang lebih baik tentang bagaimana model ini berfungsi dan bagaimana merancang model yang lebih inklusif dan mudah diakses.

Melanjutkan praktik merilis model tertutup akan terus melanggengkan kurangnya keragaman dalam teknologi dan akan menghambat dilakukannya jenis penelitian tertentu, seperti audit bias terhadap model-model ini, yang tidak diberikan insentif kepada perusahaan teknologi besar untuk melakukannya. Pendidikan tenaga kerja masa depan adalah pertimbangan lain yang sangat penting. Amerika Serikat tidak dapat berharap untuk mempertahankan kepemimpinan di bidang AI generatif tanpa melatih generasi pengembang masa depan mengenai model-model semacam ini dalam pendidikan pascasarjana dan pasca sarjana. Penting bagi siswa untuk mengeksplorasi model-model ini selama pendidikan mereka untuk memahami fungsi dasarnya, dan untuk belajar bagaimana memasukkan pertimbangan etis dalam mengembangkan model-model baru. Mengizinkan hanya perusahaan teknologi besar untuk memiliki alat untuk melatih generasi berikutnya juga dapat mengakibatkan pemikiran yang terisolasi, dan organisasi-organisasi ini mungkin mengabaikan pendidikan holistik yang dapat diberikan oleh akses terhadap model-model ini dan mendukung kerangka belajar sesuai kebutuhan yang lebih efisien. Dalam tanggapan kami, kami juga menyoroti pentingnya membangun budaya keterbukaan seputar pengembangan model-model ini, dan menekankan bahwa membangun budaya seperti itu sama pentingnya dengan mengatur teknologi-teknologi ini. Jika ada harapan bagi perusahaan teknologi untuk menciptakan model generatif secara transparan, maka regulasi di masa depan akan lebih mudah dilakukan.

Terakhir, CCC menekankan perlunya penelitian tambahan mengenai model dasar, dengan alasan kurangnya pengetahuan masyarakat saat ini tentang bagaimana model tersebut sebenarnya berfungsi dan sampai pada hasil yang dihasilkan. Dalam tanggapan kami, kami mencantumkan sejumlah pertanyaan penelitian yang belum terjawab yang siap dijawab oleh para peneliti, ilmuwan, cendekiawan, dan pakar di bidang isu sosial, asalkan mereka menerima akses terbuka yang mereka perlukan terhadap model landasan besar yang kini dimanfaatkan oleh industri. . Kesuksesan kita sebagai masyarakat bergantung pada hal ini.

Baca tanggapan CCC selengkapnya di sini.

Stempel Waktu:

Lebih dari Blog CCC