Skynet Ahoy? Apa yang Diharapkan dari Risiko Keamanan AI Generasi Berikutnya

Skynet Ahoy? Apa yang Diharapkan dari Risiko Keamanan AI Generasi Berikutnya

Skynet Ahoy? Apa yang Diharapkan untuk Risiko Keamanan AI Generasi Berikutnya PlatoBlockchain Data Intelligence. Pencarian Vertikal. Ai.

Seiring dengan pesatnya inovasi dalam kecerdasan buatan (AI), tahun 2024 akan menjadi waktu yang penting bagi organisasi dan badan pemerintahan untuk menetapkan standar keamanan, protokol, dan batasan lainnya untuk mencegah AI menjadi yang terdepan, demikian peringatan para pakar keamanan.

Model bahasa besar (LLM), yang didukung oleh algoritme canggih dan kumpulan data yang sangat besar, menunjukkan pemahaman bahasa yang luar biasa dan kemampuan percakapan yang mirip manusia. Salah satu platform tercanggih hingga saat ini adalah GPT-4 OpenAI, yang menawarkan kemampuan penalaran dan pemecahan masalah tingkat lanjut serta mendukung bot ChatGPT perusahaan. Dan perusahaan, bekerja sama dengan Microsoft, telah mulai mengerjakan GPT-5, seperti yang dikatakan CEO Sam Altman akan melangkah lebih jauh โ€” sampai pada titik memiliki โ€œkecerdasan super.โ€

Model-model ini mewakili potensi besar dalam peningkatan produktivitas dan efisiensi yang signifikan bagi organisasi, namun para ahli sepakat bahwa waktunya telah tiba untuk industri secara keseluruhan. untuk mengatasi risiko keamanan yang melekat ditimbulkan oleh pengembangan dan penyebarannya. Memang, penelitian terbaru oleh Writerbuddy AI, yang menawarkan alat penulisan konten berbasis AI, menemukan bahwa ChatGPT telah dikunjungi 14 miliar dan terus bertambah.

Ketika organisasi bergerak menuju kemajuan dalam AI, hal ini โ€œharus dibarengi dengan pertimbangan etika dan penilaian risiko yang ketat,โ€ kata Gal Ringel, CEO perusahaan privasi dan keamanan berbasis AI, MineOS.

Apakah AI merupakan Ancaman Eksistensial?

Kekhawatiran seputar keamanan AI generasi berikutnya mulai meningkat pada bulan Maret, dengan adanya surat terbuka yang ditandatangani oleh hampir 34,000 ahli teknologi terkemuka yang menyerukan penghentian pengembangan sistem AI generatif yang lebih canggih dari AI. GPT-4 OpenAI. Surat tersebut menyebutkan โ€œrisiko besarโ€ terhadap masyarakat yang ditimbulkan oleh teknologi tersebut dan โ€œperlombaan tak terkendali oleh laboratorium AI untuk mengembangkan dan menerapkan pikiran digital yang lebih kuat yang tidak dapat dipahami, diprediksi, atau diprediksi oleh siapa pun โ€“ bahkan penciptanya โ€“ pun. kendali yang andal.โ€

Terlepas dari ketakutan distopia tersebut, sebagian besar pakar keamanan tidak terlalu khawatir dengan skenario kiamat di mana mesin menjadi lebih pintar dari manusia dan mengambil alih dunia.

โ€œSurat terbuka tersebut mencatat kekhawatiran yang sahih mengenai kemajuan pesat dan potensi penerapan AI dalam arti luas, โ€˜apakah ini baik bagi kemanusiaanโ€™,โ€ kata Matt Wilson, direktur teknik penjualan di perusahaan keamanan siber Netrix. โ€œMeskipun mengesankan dalam skenario tertentu, alat AI versi publik tidak tampak terlalu mengancam.โ€

Yang mengkhawatirkan adalah fakta bahwa kemajuan dan adopsi AI berjalan terlalu cepat sehingga risikonya tidak bisa dikelola dengan baik, kata para peneliti. โ€œKami tidak dapat menutup kembali kotak Pandora,โ€ kata Patrick Harr, CEO penyedia keamanan AI SlashNext.

Selain itu, โ€œmencoba menghentikan laju inovasi di bidang ini tidak akan membantu mengurangiโ€ risiko yang ditimbulkannya, yang harus ditangani secara terpisah, kata Marcus Fowler, CEO perusahaan keamanan AI DarkTrace Federal. Itu tidak berarti pengembangan AI harus dibiarkan begitu saja, katanya. Sebaliknya, tingkat penilaian risiko dan penerapan upaya perlindungan yang tepat harus sesuai dengan tingkat pelatihan dan pengembangan LLM.

โ€œTeknologi AI berkembang dengan cepat, sehingga pemerintah dan organisasi yang menggunakan AI juga harus mempercepat diskusi seputar keamanan AI,โ€ jelas Fowler.

Risiko AI Generatif

Ada beberapa risiko yang diketahui secara luas terhadap AI generatif yang memerlukan pertimbangan dan hanya akan menjadi lebih buruk seiring dengan semakin pintarnya teknologi generasi mendatang. Untungnya bagi manusia, sejauh ini tidak satu pun dari mereka yang mengajukan skenario kiamat fiksi ilmiah di mana AI berkonspirasi untuk menghancurkan penciptanya.

Sebaliknya, ancaman tersebut mencakup ancaman yang jauh lebih umum, seperti kebocoran data, yang mungkin merupakan informasi sensitif bisnis; penyalahgunaan untuk aktivitas jahat; dan keluaran yang tidak akurat yang dapat menyesatkan atau membingungkan pengguna, yang pada akhirnya mengakibatkan konsekuensi bisnis yang negatif.

Karena LLM memerlukan akses ke sejumlah besar data untuk memberikan keluaran yang akurat dan relevan secara kontekstual, informasi sensitif dapat terungkap atau disalahgunakan secara tidak sengaja.

โ€œRisiko utamanya adalah karyawan yang memberi makan dengan informasi sensitif bisnis ketika memintanya untuk menulis rencana atau menyusun ulang email atau dek bisnis yang berisi informasi hak milik perusahaan,โ€ catat Ringel.

Dari perspektif serangan siber, pelaku ancaman telah menemukan berbagai cara untuk menggunakan ChatGPT dan sistem AI lainnya sebagai senjata. Salah satu caranya adalah dengan menggunakan model tersebut untuk membuat kompromi email bisnis (BEC) yang canggih dan serangan phishing lainnya, yang memerlukan pembuatan pesan yang dipersonalisasi dan direkayasa secara sosial yang dirancang untuk mencapai kesuksesan.

โ€œDengan malware, ChatGPT memungkinkan penjahat dunia maya membuat variasi kode tanpa batas agar tetap selangkah lebih maju dari mesin pendeteksi malware,โ€ kata Harr.

Halusinasi AI juga menimbulkan ancaman keamanan yang signifikan dan memungkinkan pelaku kejahatan mempersenjatai teknologi berbasis LLM seperti ChatGPT dengan cara yang unik. Halusinasi AI adalah respons AI yang masuk akal, namun tidak memadai, bias, atau sama sekali tidak benar. โ€œRespon fiktif atau tanggapan lain yang tidak diinginkan dapat mengarahkan organisasi ke dalam pengambilan keputusan, proses, dan komunikasi yang menyesatkan,โ€ Avivah Litan, wakil presiden Gartner memperingatkan.

Pelaku ancaman juga dapat menggunakan halusinasi ini untuk meracuni LLM dan โ€œmenghasilkan misinformasi spesifik sebagai jawaban atas sebuah pertanyaan,โ€ kata Michael Rinehart, wakil presiden AI di penyedia keamanan data Securiti. โ€œHal ini dapat diperluas ke pembuatan kode sumber yang rentan dan, mungkin, ke model obrolan yang mampu mengarahkan pengguna situs ke tindakan yang tidak aman.โ€

Penyerang bahkan bisa bertindak sejauh itu mempublikasikan versi paket perangkat lunak yang berbahaya yang mungkin direkomendasikan LLM kepada pengembang perangkat lunak, dengan keyakinan bahwa ini adalah perbaikan yang sah untuk suatu masalah. Dengan cara ini, penyerang dapat mempersenjatai AI untuk melancarkan serangan rantai pasokan.

Jalan ke Depan

Mengelola risiko-risiko ini memerlukan tindakan terukur dan kolektif sebelum inovasi AI melampaui kemampuan industri untuk mengendalikannya, kata para ahli. Namun mereka juga punya ide tentang cara mengatasi masalah AI.

Harr percaya pada โ€œmelawan AI dengan Aโ€ strategi, yang mana โ€œkemajuan dalam solusi keamanan dan strategi untuk menggagalkan risiko yang dipicu oleh AI harus berkembang dengan kecepatan yang sama atau lebih besar.

โ€œPerlindungan keamanan siber perlu memanfaatkan AI agar berhasil melawan ancaman siber menggunakan teknologi AI,โ€ tambahnya. โ€œSebagai perbandingan, teknologi keamanan lama tidak memiliki peluang melawan serangan ini.โ€

Namun, organisasi juga harus mengambil pendekatan terukur dalam mengadopsi AI โ€“ termasuk Solusi keamanan berbasis AI โ€” agar mereka tidak menimbulkan lebih banyak risiko pada lingkungan mereka, Wilson dari Netrix memperingatkan.

โ€œPahami apa itu AI dan apa yang bukan AI,โ€ sarannya. โ€œTantang vendor yang mengklaim menggunakan AI untuk menjelaskan fungsinya, bagaimana AI meningkatkan solusi mereka, dan mengapa hal itu penting bagi organisasi Anda.โ€

Rinehart dari Securiti menawarkan pendekatan dua tingkat untuk memasukkan AI ke dalam lingkungan secara bertahap dengan menerapkan solusi terfokus dan kemudian menempatkan pagar pembatas segera sebelum memaparkan organisasi pada risiko yang tidak perlu.

โ€œPertama, adopsi model khusus aplikasi, yang berpotensi ditambah dengan basis pengetahuan, yang disesuaikan untuk memberikan nilai dalam kasus penggunaan tertentu,โ€ katanya. โ€œKemudianโ€ฆ menerapkan sistem pemantauan untuk melindungi model-model ini dengan memeriksa pesan-pesan yang masuk dan dari mereka untuk mengetahui masalah privasi dan keamanan.โ€

Para ahli juga merekomendasikan untuk menyiapkan kebijakan dan prosedur keamanan seputar AI sebelum diterapkan, bukan hanya sekedar pertimbangan untuk memitigasi risiko. Mereka bahkan dapat membentuk petugas risiko AI atau gugus tugas khusus untuk mengawasi kepatuhan.

Di luar perusahaan, industri secara keseluruhan juga harus mengambil langkah-langkah untuk menetapkan standar dan praktik keamanan seputar AI yang dapat diadopsi oleh semua orang yang mengembangkan dan menggunakan teknologi tersebut โ€“ sesuatu yang memerlukan tindakan kolektif baik dari sektor publik maupun swasta dalam skala global. , kata Fowler dari DarkTrace Federal.

Dia mengutip pedoman untuk membangun sistem AI yang aman diterbitkan secara kolaboratif oleh Badan Keamanan Siber dan Infrastruktur AS (CISA) dan Pusat Keamanan Siber Nasional Inggris (NCSC) sebagai contoh upaya yang harus dilakukan seiring dengan evolusi AI yang berkelanjutan.

โ€œIntinya,โ€ kata Rinehart dari Securiti, โ€œtahun 2024 akan menjadi saksi adaptasi cepat dari keamanan tradisional dan teknik AI mutakhir untuk melindungi pengguna dan data di era AI generatif yang sedang berkembang ini.โ€

Stempel Waktu:

Lebih dari Bacaan gelap