Pemimpin teknologi menyoroti risiko AI & urgensi regulasi AI yang kuat

Pemimpin teknologi menyoroti risiko AI & urgensi regulasi AI yang kuat

Pemimpin teknologi menyoroti risiko AI & urgensi regulasi AI yang kuat
Pertumbuhan dan kemajuan AI telah eksponensial selama beberapa tahun terakhir. Laporan Statista bahwa pada tahun 2024, pasar AI global akan menghasilkan pendapatan yang mengejutkan sekitar $3000 miliar, dibandingkan dengan $126 miliar pada tahun 2015. Namun, para pemimpin teknologi sekarang memperingatkan kita tentang berbagai risiko AI.
Terutama, gelombang baru-baru ini AI generatif model seperti ChatGPT telah memperkenalkan kemampuan baru di berbagai sektor sensitif data, seperti kesehatan, pendidikan, keuangan, dll. Pengembangan yang didukung AI ini rentan karena banyak kekurangan AI yang dapat diekspos agen jahat.
Mari kita bahas apa yang dikatakan pakar AI tentang perkembangan terkini dan menyoroti potensi risiko AI. Kami juga akan membahas secara singkat bagaimana risiko ini dapat dikelola.

Pemimpin Teknologi & Kekhawatirannya Terkait Risiko AI

Geoffrey Hinton

Geoffrey Hinton โ€“ seorang pemimpin teknologi AI terkenal (dan ayah baptis bidang ini), yang baru saja keluar dari Google, memiliki menyuarakan keprihatinannya tentang perkembangan pesat dalam AI dan potensi bahayanya. Hinton percaya bahwa chatbot AI bisa menjadi "sangat menakutkan" jika mereka melampaui kecerdasan manusia.
Hinton berkata:
โ€œSaat ini, apa yang kami lihat adalah hal-hal seperti GPT-4 melampaui seseorang dalam jumlah pengetahuan umum yang dimilikinya, dan melampaui mereka dalam waktu yang lama. Dari segi penalaran kurang bagus, tapi sudah melakukan penalaran sederhana. Dan mengingat tingkat kemajuannya, kami berharap segalanya menjadi lebih baik dengan cukup cepat. Jadi kita perlu khawatir tentang itu.โ€
Selain itu, dia percaya bahwa "aktor jahat" dapat menggunakan AI untuk "hal-hal buruk", seperti membiarkan robot memiliki sub-tujuannya. Terlepas dari kekhawatirannya, Hinton percaya bahwa AI dapat memberikan manfaat jangka pendek, tetapi kita juga harus banyak berinvestasi dalam keamanan dan kontrol AI.

Elon Musk

Keterlibatan Elon Musk dalam AI dimulai dengan investasi awalnya di DeepMind pada tahun 2010, untuk ikut mendirikan OpenAI dan menggabungkan AI ke dalam kendaraan otonom Tesla.
Meskipun dia sangat antusias dengan AI, dia sering mengemukakan kekhawatiran tentang risiko AI. Musk mengatakan bahwa sistem AI yang kuat bisa lebih berbahaya bagi peradaban daripada senjata nuklir. Dalam sebuah wawancara di Fox News pada April 2023, dia berkata:
โ€œAI lebih berbahaya daripada, katakanlah, desain pesawat yang salah urus atau pemeliharaan produksi atau produksi mobil yang buruk. Dalam arti bahwa itu memiliki potensi โ€” bagaimanapun, orang kecil mungkin menganggap kemungkinan itu โ€” tetapi itu tidak sepele dan memiliki potensi kehancuran peradaban.
Selain itu, Musk mendukung peraturan pemerintah tentang AI untuk memastikan keamanan dari potensi risiko, meskipun "tidak begitu menyenangkan".

Jeda Eksperimen AI Raksasa: Surat Terbuka yang Didukung oleh 1000 Pakar AI

Future of Life Institute menerbitkan surat terbuka pada 22 Maret 2023. Surat itu meminta penghentian sementara selama enam bulan Pengembangan sistem AI lebih maju dari GPT-4. Para penulis mengungkapkan keprihatinan mereka tentang kecepatan pengembangan sistem AI yang menimbulkan tantangan sosial ekonomi yang parah.
Selain itu, surat tersebut menyatakan bahwa pengembang AI harus bekerja dengan pembuat kebijakan untuk mendokumentasikan sistem tata kelola AI. Per Juni 2023, surat tersebut telah ditandatangani oleh lebih dari 31,000 pengembang AI, pakar, dan pemimpin teknologi. Penandatangan terkenal termasuk Elon Musk, Steve Wozniak (Salah satu pendiri Apple), Emad Mostaque (CEO, Stability AI), Yoshua Bengio (pemenang Hadiah Turing), dan banyak lagi.

Argumen Kontra tentang Menghentikan Pengembangan AI

Dua pemimpin AI terkemuka, Andrew Ng, dan Yann LeCun, telah menentang larangan enam bulan untuk mengembangkan sistem AI canggih dan menganggap jeda itu sebagai ide yang buruk.
Ng mengatakan bahwa meskipun AI memiliki beberapa risiko, seperti bias, konsentrasi kekuatan, dll. Tetapi nilai yang diciptakan oleh AI di bidang seperti pendidikan, perawatan kesehatan, dan pembinaan responsif sangat besar.
Yann LeCun mengatakan bahwa penelitian dan pengembangan tidak boleh dihentikan, meski produk AI yang sampai ke pengguna akhir bisa diatur.

Apa Potensi Bahaya & Risiko Langsung AI?

1. Pemindahan Pekerjaan

Pakar AI percaya bahwa sistem AI cerdas dapat menggantikan tugas kognitif dan kreatif. Bank investasi Goldman Sachs memperkirakan sekitar 300 juta pekerjaan akan diotomatisasi oleh AI generatif.
Oleh karena itu, perlu adanya regulasi tentang pengembangan AI agar tidak menyebabkan keterpurukan ekonomi yang parah. Harus ada program pendidikan untuk upskilling dan reskilling karyawan untuk menghadapi tantangan ini.

2. Sistem AI yang Bias

Bias umum di antara manusia tentang jenis kelamin, ras, atau warna kulit dapat secara tidak sengaja menyerap data yang digunakan untuk melatih sistem AI, yang selanjutnya membuat sistem AI menjadi bias.
Misalnya, dalam konteks rekrutmen pekerjaan, sistem AI yang bias dapat membuang resume individu dari latar belakang etnis tertentu, menciptakan diskriminasi di pasar kerja. Di dalam penegakan hukum, pemolisian prediktif yang bias dapat secara tidak proporsional menargetkan lingkungan atau kelompok demografis tertentu.
Oleh karena itu, penting untuk memiliki strategi data komprehensif yang menangani risiko AI, khususnya bias. Sistem AI harus sering dievaluasi dan diaudit agar tetap adil.

3. Aplikasi AI yang Penting bagi Keselamatan

Kendaraan otonom, diagnosis & perawatan medis, sistem penerbangan, kontrol pembangkit listrik tenaga nuklir, dll., semuanya adalah contoh aplikasi AI yang kritis terhadap keselamatan. Sistem AI ini harus dikembangkan dengan hati-hati karena kesalahan kecil sekalipun dapat menimbulkan konsekuensi yang parah bagi kehidupan manusia atau lingkungan.
Misalnya, tidak berfungsinya perangkat lunak AI yang disebut Sistem Augmentasi Karakteristik Manuver (MCAS) sebagian disebabkan oleh jatuhnya dua Boeing 737 MAX, pertama pada Oktober 2018 dan kemudian pada Maret 2019. Sayangnya, kedua kecelakaan tersebut menewaskan 346 orang.

Bagaimana Kita Dapat Mengatasi Risiko Sistem AI? โ€“ Pengembangan AI & Kepatuhan Regulasi yang Bertanggung Jawab

AI yang bertanggung jawab (RAI) berarti mengembangkan dan menerapkan sistem AI yang adil, akuntabel, transparan, dan aman yang memastikan privasi dan mengikuti peraturan hukum dan norma sosial. Menerapkan RAI dapat menjadi rumit mengingat pengembangan sistem AI yang luas dan cepat.
Namun, perusahaan teknologi besar telah mengembangkan framework RAI, seperti:
  1. AI yang Bertanggung Jawab dari Microsoft
  2. Prinsip AI Google
  3. AI Tepercaya IBM
Laboratorium AI di seluruh dunia dapat mengambil inspirasi dari prinsip-prinsip ini atau mengembangkan kerangka kerja AI mereka sendiri yang bertanggung jawab untuk membuat sistem AI yang dapat dipercaya.

Kepatuhan Regulasi AI

Karena data merupakan komponen integral dari sistem AI, organisasi dan laboratorium berbasis AI harus mematuhi peraturan berikut untuk memastikan keamanan, privasi, dan keselamatan data.
  1. GDPR (Peraturan Perlindungan Data Umum) โ€“ kerangka kerja perlindungan data oleh UE.
  2. CCPA (Undang-Undang Privasi Konsumen California) โ€“ undang-undang negara bagian California untuk hak privasi dan perlindungan konsumen.
  3. HIPAA (Undang-Undang Portabilitas dan Akuntabilitas Asuransi Kesehatan) โ€“ undang-undang AS yang melindungi data medis pasien.
  4. UU AI UE, dan Pedoman etika untuk AI yang dapat dipercaya โ€“ peraturan AI Komisi Eropa.
Ada berbagai undang-undang regional dan lokal yang diberlakukan oleh berbagai negara untuk melindungi warganya. Organisasi yang gagal memastikan kepatuhan terhadap peraturan seputar data dapat mengakibatkan hukuman yang berat. Misalnya, GDPR telah menetapkan denda โ‚ฌ20 juta atau 4% dari laba tahunan untuk pelanggaran serius seperti pemrosesan data yang melanggar hukum, persetujuan data yang tidak terbukti, pelanggaran hak subjek data, atau transfer data yang tidak dilindungi ke entitas internasional.

Pengembangan & Regulasi AI โ€“ Saat Ini & Masa Depan

Setiap bulan, kemajuan AI mencapai ketinggian yang belum pernah terjadi sebelumnya. Namun, regulasi AI dan kerangka kerja tata kelola yang menyertainya masih tertinggal. Mereka harus lebih kuat dan spesifik.
Para pemimpin teknologi dan pengembang AI telah membunyikan alarm tentang risiko AI jika tidak diatur secara memadai. Riset dan pengembangan dalam AI dapat memberikan nilai lebih lanjut di banyak sektor, tetapi jelas bahwa regulasi yang hati-hati sekarang sangat penting.

Tautan: https://www.unite.ai/tech-leaders-highlighting-the-risks-of-ai-the-urgency-of-robust-ai-regulation/?utm_source=pocket_saves

Sumber: https://www.unite.ai

Tech leaders highlighting the risks of AI & the urgency of robust AI regulation PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Stempel Waktu:

Lebih dari Berita Fintech