Boffins mendesak regulasi AI untuk mencegah ancaman di masa depan

Boffins mendesak regulasi AI untuk mencegah ancaman di masa depan

Boffins mendesak regulasi AI untuk mencegah ancaman di masa depan. PlatoBlockchain Data Intelligence. Pencarian Vertikal. Ai.

Sekelompok 24 tokoh AI telah menerbitkan makalah dan surat terbuka yang menyerukan regulasi dan perlindungan yang lebih kuat terhadap teknologi tersebut, sebelum merugikan masyarakat dan individu.

โ€œAgar AI dapat memberikan manfaat, kita harus melakukan reorientasi; mendorong kemampuan AI saja tidak cukup,โ€ desak kelompok tersebut dalam pernyataannya dokumen.

Dipimpin oleh dua dari tiga orang yang disebut sebagai โ€œbapak baptis AIโ€, Geoffrey Hinton dan Yoshua Bengio, kelompok tersebut mengatakan bahwa kemajuan AI โ€œcepat dan, bagi banyak orang, mengejutkan.โ€

Tidak ada alasan untuk menganggap laju pengembangan AI akan melambat, kata kelompok tersebut, yang berarti bahwa suatu titik telah tercapai dimana regulasi diperlukan dan mungkin dilakukan โ€“ sebuah peluang yang menurut mereka bisa saja terlewatkan.

โ€œPerubahan iklim membutuhkan waktu puluhan tahun untuk diakui dan dihadapi; bagi AI, beberapa dekade bisa jadi terlalu lama,โ€ tegas surat itu. โ€œTanpa kehati-hatian yang memadai, kita mungkin kehilangan kendali atas sistem AI otonom, sehingga intervensi manusia menjadi tidak efektif.โ€

Pengembangan AI otonom di masa depan adalah titik fokus dari surat ini. Sistem seperti itu, menurut para peneliti, dapat dirancang dengan niat jahat, atau dilengkapi dengan kemampuan berbahaya sehingga berpotensi lebih berbahaya dibandingkan banyak aktor negara-bangsa yang saat ini mengancam sistem sensitif.

Lebih jauh lagi, AI yang buruk dapat โ€œmemperparah ketidakadilan sosial, mengikis stabilitas sosial, dan melemahkan pemahaman kita bersama tentang realitas yang menjadi dasar masyarakat,โ€ tulis para penulis.

Untuk mencegah kemungkinan terburuk, surat tersebut mendesak perusahaan yang meneliti dan menerapkan AI untuk menggunakan โ€œtujuan yang aman dan etisโ€. Para penulis menyarankan agar perusahaan teknologi dan penyandang dana swasta untuk penelitian AI harus mengalokasikan setidaknya sepertiga dari anggaran penelitian dan pengembangan mereka untuk bidang keselamatan.

Para penulis mendesak pemerintah untuk mengambil tindakan juga, dan menunjukkan bahwa tidak ada kerangka peraturan atau tata kelola yang ada untuk mengatasi risiko AI, namun pemerintah memang mengatur bidang farmasi, sistem keuangan, dan energi nuklir.

Pemerintah harus memastikan bahwa mereka memiliki wawasan mengenai pengembangan AI melalui peraturan seperti pendaftaran model, perlindungan pelapor, standar pelaporan insiden, dan pemantauan pengembangan model dan penggunaan superkomputer, demikian pendapat penulis surat tersebut.

Pemerintah harus diberi akses terhadap sistem AI sebelum penerapannya โ€œuntuk mengevaluasi kemampuan berbahayanyaโ€ seperti replikasi mandiri, yang menurut penulis dapat menjadikan AI otonom sebagai ancaman yang tidak dapat dihentikan. Selain itu, pengembang model โ€œfrontier AIโ€ yang mutakhir harus bertanggung jawab secara hukum atas kerugian yang melekat pada model mereka jika masalah tersebut โ€œdapat diramalkan atau dicegah secara wajar.โ€

Para pembuat kebijakan juga harus memberi wewenang pada diri mereka sendiri untuk โ€œmelisensikan pengembangan [AI], menghentikan pengembangan sebagai respons terhadap kemampuan yang mengkhawatirkan, mewajibkan kontrol akses, dan mewajibkan langkah-langkah keamanan informasi yang kuat bagi peretas tingkat negara bagian, hingga perlindungan yang memadai siap,โ€ tegas kelompok tersebut.

โ€œAda jalan yang bertanggung jawab, jika kita memiliki kebijaksanaan untuk mengambilnya,โ€ tulis Hinton, Bengio dan rekan-rekan mereka.

Bos AI Meta tidak setuju

Seruan untuk manajemen risiko AI yang lebih baik muncul hanya seminggu sebelum pertemuan puncak pertama di dunia mengenai keselamatan AI diselenggarakan di Bletchley Park Inggris pada bulan November. Pemerintahan di seluruh dunia, para pemimpin teknologi, dan akademisi akan hadir untuk membahas ancaman-ancaman yang diperingatkan oleh makalah terbuka ini.

Salah satu peserta KTT Bletchley adalah Yann LeCun, orang ketiga dari tiga godfather AI yang memenangkan Hadiah Turing pada tahun 2019 atas karya mereka penelitian ke dalam jaringan saraf, dan namanya tidak disebutkan dalam makalah manajemen risiko yang diterbitkan hari ini.

Berbeda dengan Bengio dan Hinton yang terakhir meninggalkan Google pada bulan Mei dan menyatakan penyesalannya atas kontribusinya pada bidang AI dan kerugian yang dapat ditimbulkannya, LeCun melanjutkan pekerjaannya dengan industri teknologi swasta sebagai kepala ilmuwan AI di perusahaan induk Facebook, Meta, yang telah meninggal dunia. menyeluruh dalam pengembangan AI akhir-akhir ini.

LeCun bahkan masuk ke a perdebatan di Facebook awal bulan ini dengan Bengio.

Eksekutif Meta mengklaim bahwa โ€œmayoritas diamโ€ ilmuwan AI tidak percaya pada skenario kiamat AI dan percaya bahwa teknologi memerlukan platform yang terbuka dan dapat diakses agar menjadi โ€œkuat, andal, dan aman.โ€

Bengio, sebaliknya, tersebut Menurutnya, sesuatu yang memiliki potensi sebesar AI memerlukan regulasi agar tidak jatuh ke tangan yang salah.

โ€œArgumen Anda yang mengizinkan semua orang memanipulasi AI yang kuat adalah seperti argumen libertarian bahwa setiap orang harus diperbolehkan memiliki senapan mesinโ€ฆ Dari ingatan, Anda tidak setuju dengan kebijakan tersebut,โ€ kata Bengio dalam menanggapi postingan LeCun di Facebook. โ€œApakah pemerintah mengizinkan siapa pun membuat bom nuklir, memanipulasi patogen berbahaya, atau mengemudikan pesawat penumpang? Tidak. Hal ini diatur secara ketat oleh pemerintah.โ€

LeCun tidak menanggapi pertanyaan dari Pendaftaran, tapi dia berbicara dengannya The Financial Times minggu lalu dan menyampaikan poin-poin yang sekarang terlihat seperti tanggapan antisipatif terhadap klaim dalam makalah manajemen risiko AI yang ditulis oleh akademisi.

โ€œMengatur penelitian dan pengembangan AI sangat kontraproduktif,โ€ LeCun mengatakan FT, menambahkan bahwa mereka yang meminta hal tersebut โ€œmenginginkan peraturan yang berkedok keamanan AI.โ€

LeCun menolak kemungkinan bahwa AI dapat mengancam umat manusia sebagai hal yang โ€œtidak masuk akal,โ€ dengan alasan bahwa model AI bahkan tidak memahami dunia, tidak dapat merencanakan, dan tidak dapat berpikir.

โ€œKami tidak memiliki mobil yang sepenuhnya otonom dan dapat mengemudi sendiri yang dapat melatih dirinya sendiri untuk mengemudi dalam waktu sekitar 20 jam latihan, sesuatu yang dapat dilakukan oleh anak berusia 17 tahun,โ€ bantah LeCun. Mencoba mengendalikan teknologi yang berkembang pesat seperti AI harus dibandingkan dengan masa-masa awal internet, yang hanya berkembang karena tetap terbuka, kata pria Meta.

Perlu dicatat bahwa penulis makalah dan surat terbuka yang diterbitkan hari ini tidak menyatakan bahwa generasi AI saat ini mampu menghadapi ancaman yang mereka prediksi. Sebaliknya, mereka ingin peraturan diberlakukan sebelum masalah tersebut muncul.

โ€œPada tahun 2019, GPT-2 tidak dapat dihitung sampai sepuluh. Hanya empat tahun kemudian, sistem pembelajaran mendalam dapat menulis perangkat lunak, menghasilkan adegan fotorealistik sesuai permintaan, memberikan saran mengenai topik intelektual, dan menggabungkan bahasa dan pemrosesan gambar untuk mengarahkan robot,โ€ kata kelompok 24 akademisi tersebut.

โ€œKita harus mengantisipasi semakin besarnya dampak buruk yang sedang terjadi, serta risiko-risiko baru, dan bersiap menghadapi risiko-risiko terbesar jauh sebelum risiko-risiko tersebut terwujud.โ€ ยฎ

Stempel Waktu:

Lebih dari Pendaftaran