LLM Seperti ChatGPT Terus-menerus Membocorkan Data Sensitif

LLM Seperti ChatGPT Terus-menerus Membocorkan Data Sensitif

LLM Seperti ChatGPT Terus-menerus Membocorkan Data Sensitif PlatoBlockchain Data Intelligence. Pencarian Vertikal. Ai.

Dalam studi perintis, tim dari University of North Carolina, Chapel Hill, telah menjelaskan masalah mendesak retensi data dalam model bahasa besar (LLM) seperti ChatGPT OpenAI dan Bard Google.

Meskipun ada upaya penghapusan, seluk-beluk model AI ini terus muncul data sensitif, memicu perbincangan serius tentang keamanan informasi dan etika AI.

Teka-teki Data yang 'Tidak Dapat Dihapus'

Para peneliti memulai upaya untuk menyelidiki penghapusan informasi sensitif dari LLM. Namun, mereka menemukan sebuah wahyu. Menghapus data seperti itu sulit dilakukan, tetapi memverifikasi penghapusan juga memiliki tantangan yang sama. Setelah dilatih pada kumpulan data yang luas, raksasa AI ini menyimpan data dalam labirin parameter dan bobot yang kompleks.

Kesulitan ini berubah menjadi tidak menyenangkan ketika Model AI secara tidak sengaja membocorkan data sensitif, seperti tanda pengenal pribadi atau catatan keuangan, yang berpotensi menjadi dasar penggunaan yang jahat.

Terlebih lagi, inti permasalahannya terletak pada cetak biru desain model-model ini. Fase pendahuluan melibatkan pelatihan tentang database yang luas dan penyesuaian untuk memastikan keluaran yang koheren. Terminologi โ€œGenerative Pretrained Transformer,โ€ yang dikemas dalam GPT, memberikan gambaran sekilas tentang mekanisme ini.

Para peneliti UNC menjelaskan skenario hipotetis di mana LLM, yang memanfaatkan data perbankan sensitif, menjadi ancaman potensial. Pagar pembatas kontemporer yang diterapkan oleh pengembang AI tidak mampu meredakan kekhawatiran ini.

Langkah-langkah perlindungan ini, seperti perintah yang dikodekan atau paradigma yang dikenal sebagai Pembelajaran Penguatan dari Umpan Balik Manusia (RLHF), memainkan peran penting dalam membatasi keluaran yang tidak diinginkan. Namun, mereka masih membiarkan data tersembunyi di dalam model, siap dipanggil hanya dengan mengulangi perintah.

Menjembatani Kesenjangan Keamanan

Meskipun menerapkan metode pengeditan model yang canggih seperti Pengeditan Model Peringkat Satu, tim UNC menemukan bahwa informasi faktual yang penting tetap dapat diakses. Temuan mereka mengungkapkan bahwa fakta dapat dibangkitkan sekitar 38% dan 29% melalui serangan whitebox dan blackbox.

Dalam pencariannya, para peneliti menggunakan model yang dikenal sebagai GPT-J. Dengan 6 miliar parameternya, ia tergolong kerdil jika dibandingkan dengan GPT-3.5 yang sangat besar, a model dasar untuk ChatGPT dengan 170 miliar parameter. Hal yang sangat kontras ini mengisyaratkan tantangan besar dalam membersihkan model yang lebih besar seperti GPT-3.5 dari data yang tidak beralasan.

Selain itu, para peneliti UNC menciptakan metode pertahanan baru untuk melindungi LLM dari โ€œserangan ekstraksiโ€ tertentu. Skema jahat ini mengeksploitasi batasan model untuk mengambil data sensitif. Meskipun demikian, surat kabar tersebut secara tidak menyenangkan mengisyaratkan adanya permainan kucing dan tikus yang tiada henti, di mana strategi pertahanan akan selamanya mengejar taktik ofensif yang terus berkembang.

Microsoft Mendelegasikan Tim Nuklir untuk Mendukung AI

Di sisi lain, berkembangnya bidang AI telah mendorong raksasa teknologi seperti Microsoft untuk menjelajah ke wilayah yang belum dipetakan. Pembentukan tim tenaga nuklir yang dilakukan Microsoft baru-baru ini untuk mendukung inisiatif AI menggarisbawahi meningkatnya permintaan dan masa depan AI dan sumber daya energi yang saling terkait. Seiring berkembangnya model AI, selera mereka terhadap energi pun meningkat, sehingga membuka jalan bagi solusi inovatif untuk memenuhi permintaan yang terus meningkat ini.

Wacana seputar penyimpanan dan penghapusan data di LLM melampaui koridor akademik. Hal ini memerlukan pemeriksaan menyeluruh dan dialog di seluruh industri untuk mengembangkan kerangka kerja yang kuat yang menjamin keamanan data sekaligus memelihara pertumbuhan dan potensi AI.

Upaya yang dilakukan oleh para peneliti UNC ini merupakan langkah signifikan menuju pemahaman dan pada akhirnya menyelesaikan masalah data yang 'tidak dapat dihapus', satu langkah lebih dekat untuk menjadikan AI sebagai alat yang lebih aman di era digital.

Stempel Waktu:

Lebih dari Berita Meta