Mantan Peneliti OpenAI: Ada 50% Peluang AI Berakhir di 'Bencana'

Mantan Peneliti OpenAI: Ada 50% Peluang AI Berakhir di 'Bencana'

Mantan Peneliti OpenAI: Ada Kemungkinan 50% AI Berakhir dalam 'Bencana' Kecerdasan Data PlatoBlockchain. Pencarian Vertikal. Ai.

Seorang mantan peneliti kunci di OpenAI percaya ada peluang yang layak bahwa kecerdasan buatan akan mengendalikan umat manusia dan menghancurkannya.

“Saya pikir mungkin ada kemungkinan 10-20% pengambilalihan AI, [dengan] banyak [atau] sebagian besar manusia mati,” Paul Christiano, yang menjalankan tim penyelarasan model bahasa di OpenAI, kata di Podcast tanpa bank. "Saya menganggapnya cukup serius."

Christiano, yang sekarang mengepalai Pusat Penelitian Keselarasan, organisasi nirlaba yang bertujuan menyelaraskan AI dan sistem pembelajaran mesin dengan "kepentingan manusia", mengatakan bahwa dia sangat khawatir tentang apa yang terjadi ketika AI mencapai kapasitas logis dan kreatif manusia. “Secara keseluruhan, mungkin kita berbicara tentang peluang bencana 50/50 segera setelah kita memiliki sistem di tingkat manusia,” katanya.

Christiano berada di perusahaan yang baik. Baru-baru ini sejumlah ilmuwan di seluruh dunia menandatangani surat online mendesak agar OpenAI dan perusahaan lain berlomba untuk membangun AI yang lebih cepat dan lebih cerdas, menekan tombol jeda pada pengembangan. Rambut palsu besar dari Bill Gates hingga Elon Musk telah menyatakan keprihatinan bahwa, jika dibiarkan, AI merupakan bahaya eksistensial yang nyata bagi manusia.

Jangan jahat

Mengapa AI menjadi jahat? Pada dasarnya, untuk alasan yang sama seperti yang dilakukan seseorang: pelatihan dan pengalaman hidup.

Seperti bayi, AI dilatih dengan menerima segunung data tanpa benar-benar tahu apa yang harus dilakukan dengannya. Ia belajar dengan mencoba mencapai tujuan tertentu dengan tindakan acak dan membidik hasil yang "benar", seperti yang didefinisikan oleh pelatihan.

Sejauh ini, dengan membenamkan diri dalam data yang terkumpul di internet, pembelajaran mesin telah memungkinkan AI untuk membuat lompatan besar dalam merangkai respons koheren yang terstruktur dengan baik terhadap permintaan manusia. Pada saat yang sama, pemrosesan komputer mendasar yang menggerakkan pembelajaran mesin menjadi lebih cepat, lebih baik, dan lebih terspesialisasi. Beberapa ilmuwan percaya bahwa dalam satu dekade, kekuatan pemrosesan itu, dikombinasikan dengan kecerdasan buatan, akan memungkinkan mesin ini menjadi hidup, seperti manusia, dan memiliki kesadaran diri.

Saat itulah segalanya menjadi berbulu. Dan itulah mengapa banyak peneliti berpendapat bahwa kita perlu mencari cara untuk memasang pagar pengaman sekarang, bukan nanti. Selama perilaku AI dipantau, itu dapat dikendalikan.

Tetapi jika koin mendarat di sisi lain, bahkan salah satu pendiri OpenAI mengatakan bahwa segalanya bisa menjadi sangat, sangat buruk.

Hari Kiamat?

Topik ini telah dibahas selama bertahun-tahun. Salah satu debat paling terkenal tentang masalah ini terjadi 11 tahun lalu antara peneliti AI Eliezer Yudkowsky dan ekonom Robin Hanson. Keduanya membahas kemungkinan mencapai “makanan”—yang tampaknya merupakan singkatan dari “Fast Onset of Overwhelming Mastery”—titik di mana AI menjadi lebih pintar secara eksponensial daripada manusia dan mampu memperbaiki diri. (Derivasi dari istilah "foom" adalah belum pasti.)

“Eliezer dan pembantunya percaya bahwa AI yang tak terelakkan akan 'terbang' tanpa peringatan, artinya, suatu hari Anda membangun AGI [kecerdasan umum buatan] dan berjam-jam atau berhari-hari kemudian benda itu secara rekursif memperbaiki diri menjadi kecerdasan seperti dewa dan kemudian memakan dunia. . Apakah ini realistis?” Perry Metzger, seorang ilmuwan komputer yang aktif di komunitas AI, tweet baru-baru ini.

Metzger berargumen bahwa bahkan ketika sistem komputer mencapai tingkat kecerdasan manusia, masih ada banyak waktu untuk menghindari hasil yang buruk. “Apakah 'foom' secara logis mungkin? Mungkin. Saya tidak yakin,” katanya. “Apakah dunia nyata itu mungkin? Saya cukup yakin tidak. Apakah AI manusia super dalam jangka panjang akan menjadi sesuatu? Ya, tapi bukan 'foom'”

Tokoh terkemuka lainnya, Yann Le Cun, juga meninggikan suaranya, mengklaim itu adalah “sama sekali tidak mungkin,” agar umat manusia mengalami pengambilalihan AI.” Semoga saja begitu.

Tetap di atas berita crypto, dapatkan pembaruan harian di kotak masuk Anda.

Stempel Waktu:

Lebih dari Dekripsi