Untuk mengatur AI, mulailah dengan perangkat keras, bantah para ahli

Untuk mengatur AI, mulailah dengan perangkat keras, bantah para ahli

Untuk mengatur AI, mulailah dengan perangkat keras, kata para ahli PlatoBlockchain Data Intelligence. Pencarian Vertikal. Ai.

Dalam upaya kita untuk membatasi potensi destruktif dari kecerdasan buatan, sebuah makalah baru dari Universitas Cambridge menyarankan untuk memasukkan saklar mematikan dan penguncian jarak jauh, seperti yang dikembangkan untuk menghentikan peluncuran senjata nuklir tanpa izin, ke dalam perangkat keras yang menggerakkannya.

Kertas [PDF], yang mencakup suara-suara dari berbagai institusi akademis dan beberapa dari OpenAI, menyatakan bahwa mengatur perangkat keras yang diandalkan oleh model ini mungkin merupakan cara terbaik untuk mencegah penyalahgunaannya.

โ€œKomputasi yang relevan dengan AI adalah titik intervensi yang sangat efektif: Komputasi ini dapat dideteksi, dikecualikan, dan dapat diukur, serta diproduksi melalui rantai pasokan yang sangat terkonsentrasi,โ€ argumen para peneliti.

Melatih model paling produktif, yang diyakini melebihi satu triliun parameter, memerlukan infrastruktur fisik yang sangat besar: puluhan ribu GPU atau akselerator dan waktu pemrosesan berminggu-minggu atau bahkan berbulan-bulan. Hal ini, kata para peneliti, membuat keberadaan dan kinerja relatif sumber daya tersebut sulit disembunyikan.

Terlebih lagi, chip paling canggih yang digunakan untuk melatih model-model ini diproduksi oleh sejumlah kecil perusahaan, seperti Nvidia, AMD, dan Intel, sehingga memungkinkan pembuat kebijakan untuk membatasi penjualan barang-barang tersebut kepada orang atau negara yang menjadi perhatian.

Faktor-faktor ini, bersama dengan faktor-faktor lain seperti kendala rantai pasokan pada manufaktur semikonduktor, menawarkan kepada pembuat kebijakan cara untuk lebih memahami bagaimana dan di mana infrastruktur AI diterapkan, siapa yang boleh dan tidak boleh mengaksesnya, dan menerapkan hukuman atas penyalahgunaannya, menurut makalah tersebut. .

Mengendalikan infrastruktur

Makalah ini menyoroti berbagai cara yang dapat diambil oleh pembuat kebijakan dalam melakukan pendekatan terhadap regulasi perangkat keras AI. Banyak saran โ€“ termasuk yang dirancang untuk meningkatkan visibilitas dan membatasi penjualan akselerator AI โ€“ sudah diterapkan di tingkat nasional.

Tahun lalu Presiden AS Joe Biden mengajukan sebuah perintah eksekutif bertujuan untuk mengidentifikasi perusahaan yang mengembangkan model AI penggunaan ganda yang besar serta vendor infrastruktur yang mampu melakukannya melatih mereka. Jika Anda belum familiar, โ€œpenggunaan gandaโ€ mengacu pada teknologi yang dapat melakukan tugas ganda dalam aplikasi sipil dan militer.

Baru-baru ini, Departemen Perdagangan AS diusulkan peraturan yang mengharuskan penyedia cloud Amerika untuk menerapkan kebijakan โ€œkenali pelanggan Andaโ€ yang lebih ketat untuk mencegah orang atau negara yang menjadi perhatian untuk menghindari pembatasan ekspor.

Para peneliti mencatat, visibilitas seperti ini sangat berharga karena dapat membantu menghindari perlombaan senjata lainnya, seperti yang dipicu oleh kontroversi celah rudal, di mana laporan yang salah menyebabkan penumpukan rudal balistik secara besar-besaran. Meskipun bermanfaat, mereka memperingatkan bahwa pelaksanaan persyaratan pelaporan ini berisiko melanggar privasi pelanggan dan bahkan menyebabkan kebocoran data sensitif.

Sementara itu, di bidang perdagangan, Departemen Perdagangan terus melakukan hal yang sama melangkah pembatasan, membatasi kinerja akselerator yang dijual ke Tiongkok. Namun, seperti yang telah kami laporkan sebelumnya, meskipun upaya ini mempersulit negara-negara seperti Tiongkok untuk mendapatkan chip Amerika, upaya tersebut masih jauh dari sempurna.

Untuk mengatasi keterbatasan ini, para peneliti telah mengusulkan penerapan pencatatan global untuk penjualan chip AI yang akan melacaknya sepanjang siklus hidupnya, bahkan setelah mereka meninggalkan negara asalnya. Registri seperti itu, menurut mereka, dapat memasukkan pengenal unik ke dalam setiap chip, yang dapat membantu memerangi penyelundupan dari komponen.

Pada spektrum yang lebih ekstrim, para peneliti menyarankan bahwa tombol pemutus (kill switch) dapat dimasukkan ke dalam silikon untuk mencegah penggunaannya dalam aplikasi berbahaya.

Secara teori, hal ini memungkinkan regulator merespons lebih cepat terhadap penyalahgunaan teknologi sensitif dengan memutus akses ke chip dari jarak jauh, namun penulis memperingatkan bahwa hal ini bukannya tanpa risiko. Implikasinya adalah, jika diterapkan secara tidak benar, tombol mematikan tersebut dapat menjadi sasaran para penjahat dunia maya.

Proposal lain akan mengharuskan banyak pihak untuk menyetujui tugas pelatihan AI yang berpotensi berisiko sebelum dapat diterapkan dalam skala besar. โ€œSenjata nuklir menggunakan mekanisme serupa yang disebut hubungan tindakan permisif,โ€ tulis mereka.

Untuk senjata nuklir, kunci keamanan ini dirancang untuk mencegah satu orang bertindak nakal dan melancarkan serangan pertama. Namun untuk AI, idenya adalah jika seseorang atau perusahaan ingin melatih model melewati ambang batas tertentu di cloud, mereka harus terlebih dahulu mendapatkan otorisasi untuk melakukannya.

Meskipun alat ini ampuh, para peneliti mengamati bahwa hal ini bisa menjadi bumerang karena mencegah pengembangan AI yang diinginkan. Argumennya adalah meskipun penggunaan senjata nuklir memiliki dampak yang cukup jelas, AI tidak selalu bersifat hitam-putih.

Namun jika hal ini terasa terlalu distopia bagi selera Anda, makalah ini mendedikasikan seluruh bagiannya untuk merealokasi sumber daya AI demi kemajuan masyarakat secara keseluruhan. Gagasannya adalah bahwa para pembuat kebijakan dapat bersatu untuk membuat komputasi AI lebih mudah diakses oleh kelompok-kelompok yang tidak mungkin menggunakannya untuk kejahatan, sebuah konsep yang digambarkan sebagai โ€œalokasi.โ€

Apa salahnya mengatur pengembangan AI?

Mengapa harus bersusah payah? Penulis makalah ini berpendapat bahwa perangkat keras fisik pada dasarnya lebih mudah dikendalikan.

Dibandingkan dengan perangkat keras, โ€œmasukan dan keluaran lain dari pengembangan AI โ€“ data, algoritme, dan model terlatih โ€“ merupakan barang tak berwujud yang mudah dibagikan dan tidak dapat bersaing, sehingga sulit untuk dikendalikan,โ€ tulis makalah tersebut.

Argumennya adalah bahwa begitu sebuah model dipublikasikan, baik secara terbuka atau bocor, tidak ada yang bisa mengembalikan jin ke dalam botol dan menghentikan penyebarannya ke seluruh internet.

Para peneliti juga menyoroti bahwa upaya untuk mencegah penyalahgunaan model terbukti tidak dapat diandalkan. Dalam salah satu contoh, penulis menyoroti betapa mudahnya para peneliti membongkar perlindungan di Llama 2 Meta yang dimaksudkan untuk mencegah model menghasilkan bahasa yang menyinggung.

Secara ekstrim, dikhawatirkan model penggunaan ganda yang cukup canggih dapat digunakan untuk mempercepat hal ini pengembangan senjata kimia atau biologi.

Makalah ini mengakui bahwa regulasi perangkat keras AI bukanlah sebuah solusi jitu dan tidak menghilangkan kebutuhan akan regulasi di aspek lain dalam industri ini.

Namun, partisipasi beberapa peneliti OpenAI sulit untuk diabaikan mengingat partisipasi CEO Sam Altman upaya untuk mengontrol narasi seputar regulasi AI. ยฎ

Stempel Waktu:

Lebih dari Pendaftaran