AI sumber terbuka membuat PC modern menjadi relevan, dan langganan tampak buruk

AI sumber terbuka membuat PC modern menjadi relevan, dan langganan tampak buruk

AI open source membuat PC modern relevan, dan langganan tampak buruk. Intelegensi Data PlatoBlockchain. Pencarian Vertikal. Ai.

Kolom Kali ini tahun lalu tren terbaru dalam komputasi menjadi tidak mungkin untuk diabaikan: lempengan silikon besar dengan ratusan miliar transistor - konsekuensi tak terhindarkan dari serangkaian solusi lain yang membuat Hukum Moore tidak terlupakan.

Tetapi penjualan PC yang merosot menunjukkan bahwa kita tidak membutuhkan komputer monster ini – dan bukan hanya karena bayangan penjualan yang disebabkan oleh COVID.

Pada paruh pertama tahun 2022, komputasi perusahaan terlihat hampir sama seperti dekade terakhir: aplikasi kantor dasar, aplikasi komunikasi tim, dan, untuk kelas kreatif, beberapa alat multimedia. Tentu, gamer akan selalu menemukan cara untuk membuat transistor tersebut berfungsi, tetapi sebagian besar perangkat keras sudah dikuasai dan kurang berfungsi. Mengapa membuang-buang transistor untuk menyelesaikan masalah?

Kemudian dunia berubah. Setahun yang lalu, OpenAI meluncurkan DALL-E, yang pertama dari alat AI generatif yang tersedia secara luas – sebuah “diffuser” yang mengubah noise, prompt teks, dan database pembobotan besar-besaran menjadi gambar. Sepertinya hampir seperti sihir. Tidak lama kemudian, Midjourney menawarkan hal yang sama – meskipun disesuaikan dengan estetika sampul album Prog Rock tahun 70-an. Tampaknya permintaan untuk komputasi awan akan meroket saat alat ini menemukan jalan mereka ke dalam produk dari Microsoft, Canva, Adobe, dan lainnya.

Kemudian dunia berubah lagi. Pada bulan Agustus, Stability AI memperkenalkan database open source pembobotan diffuser. Pada awalnya, Stable Diffusion menuntut GPU yang canggih, tetapi komunitas open source segera menyadari bahwa hal itu dapat mengoptimalkan diffuser untuk berjalan di hampir semua hal. Itu tidak harus cepat, tetapi itu akan berhasil – dan itu akan ditingkatkan dengan perangkat keras Anda.

Alih-alih menuntut sumber daya cloud yang besar, alat AI yang lebih baru ini berjalan secara lokal. Dan jika Anda membeli komputer monster, mereka akan berjalan setidaknya secepat apa pun yang ditawarkan dari OpenAI atau Midjourney – tanpa berlangganan.

Komunitas open source yang selalu menggairahkan yang menggerakkan Stable Diffusion menciptakan serangkaian pembobotan diffuser baru yang mengesankan, masing-masing menargetkan estetika tertentu. Difusi Stabil tidak hanya secepat apa pun yang ditawarkan oleh perusahaan AI komersial – ini lebih bermanfaat dan lebih dapat diperluas.

Dan kemudian – ya, Anda dapat menebaknya – dunia berubah lagi. Pada awal Desember, OpenAI's ChatGPT sepenuhnya menulis ulang harapan kami untuk kecerdasan buatan, menjadi aplikasi web tercepat yang mencapai 100 juta pengguna. Model bahasa besar (LLM) yang ditenagai oleh "transformator pra-terlatih generatif" - berapa banyak dari kita yang lupa bahwa GPT adalah singkatan dari itu? – yang melatih pembobotannya pada banyak sekali teks yang tersedia di internet.

Upaya pelatihan itu diperkirakan menelan biaya jutaan (mungkin puluhan juta) dalam sumber daya komputasi awan Azure. Biaya masuk itu diharapkan cukup untuk menahan pesaing – kecuali mungkin untuk Google dan Meta.

Sampai, sekali lagi, dunia berubah. Pada bulan Maret, Meta merilis LLaMA – model bahasa yang jauh lebih ringkas dan efisien, dengan basis data pembobotan yang relatif kecil, namun dengan kualitas respons yang mendekati GPT-4 OpenAI.

Dengan model yang hanya memiliki tiga puluh miliar parameter, LLaMA dapat duduk dengan nyaman di PC dengan RAM 32 GB. Sesuatu yang sangat mirip dengan ChatGPT – yang berjalan di Azure Cloud karena basis data pembobotannya yang sangat besar – dapat dijalankan hampir di mana saja.

Peneliti Meta menawarkan pembobotan mereka kepada rekan akademik mereka, gratis untuk diunduh. Karena LLaMA dapat berjalan di komputer lab mereka, para peneliti di Stanford segera meningkatkan LLaMA melalui teknik pelatihan baru mereka yang disebut Alpaka-Lora, yang memangkas biaya pelatihan rangkaian pembobotan yang ada dari ratusan ribu dolar menjadi beberapa ratus dolar. Mereka juga membagikan kode mereka.

Sama seperti DALL-E kalah dari Stable Diffusion untuk kegunaan dan ekstensibilitas, ChatGPT tampaknya akan kalah dalam balapan lain, karena para peneliti menghasilkan berbagai model – seperti Alpaca, Vicuña, Koala, dan banyak hewan lainnya – yang melatih dan melatih kembali dengan cepat dan murah.

Mereka meningkat jauh lebih cepat dari yang diperkirakan siapa pun. Sebagian karena mereka melatih banyak "percakapan" ChatGPT yang telah dibagikan di seluruh situs seperti Reddit, dan mereka dapat berjalan dengan baik di sebagian besar PC. Jika Anda memiliki komputer monster, mereka berjalan dengan sangat baik.

Mesin yang tidak dapat kami impikan untuk digunakan setahun yang lalu telah menemukan tujuannya: mereka menjadi pekerja keras dari semua tugas AI generatif kami. Mereka membantu kita membuat kode, merencanakan, menulis, menggambar, membuat model, dan banyak lagi.

Dan kami tidak akan terikat pada langganan untuk membuat alat baru ini berfungsi. Sepertinya open source telah melampaui pengembangan komersial baik diffusers maupun transformer.

Open source AI juga mengingatkan kita mengapa PC berkembang biak: dengan memungkinkan untuk membawa pulang alat yang dulunya hanya tersedia di kantor.

Ini tidak akan menutup pintu perdagangan. Jika ada, itu berarti ada lebih banyak ruang bagi wirausahawan untuk membuat produk baru, tanpa khawatir apakah mereka melanggar model bisnis yang mendasari Google, Microsoft, Meta, atau siapa pun. Kita sedang menuju masa gangguan teknologi yang meluas – dan ukuran tampaknya tidak memberikan banyak keuntungan.

Monster-monster sedang berkeliaran. Saya rasa itu hal yang baik. ®

Stempel Waktu:

Lebih dari Pendaftaran