Mengamankan AI: Yang Harus Anda Ketahui

Mengamankan AI: Yang Harus Anda Ketahui

Mengamankan AI: Yang Harus Anda Ketahui Kecerdasan Data PlatoBlockchain. Pencarian Vertikal. Ai.

Alat pembelajaran mesin telah menjadi bagian dari alur kerja bisnis dan TI standar selama bertahun-tahun, namun revolusi AI generatif yang sedang berlangsung mendorong peningkatan pesat dalam adopsi dan kesadaran akan alat ini. Meskipun AI menawarkan manfaat efisiensi di berbagai industri, alat baru yang canggih ini memerlukan pertimbangan keamanan khusus.

Apa Bedanya Mengamankan AI?

Revolusi AI saat ini mungkin merupakan hal baru, namun tim keamanan di Google dan tempat lain telah bekerja pada keamanan AI selama bertahun-tahun, bahkan puluhan tahun. Dalam banyak hal, prinsip dasar untuk mengamankan alat AI sama dengan praktik terbaik keamanan siber secara umum. Kebutuhan untuk mengelola akses dan melindungi data melalui teknik dasar seperti enkripsi dan identitas yang kuat tidak berubah hanya karena keterlibatan AI.

Salah satu aspek yang membedakan pengamanan AI adalah pada aspek keamanan data. Alat AI didukung โ€“ dan, pada akhirnya, diprogram โ€“ berdasarkan data, sehingga rentan terhadap serangan baru, seperti keracunan data pelatihan. Pelaku jahat yang dapat memberikan data yang cacat (atau data pelatihan sah yang korup) kepada alat AI berpotensi merusak atau menghancurkannya dengan cara yang lebih kompleks dibandingkan dengan sistem tradisional. Dan jika alat tersebut secara aktif โ€œbelajarโ€ sehingga keluarannya berubah berdasarkan masukan dari waktu ke waktu, organisasi harus mengamankannya dari penyimpangan dari fungsi aslinya.

Dengan sistem perusahaan besar tradisional (non-AI), apa yang Anda dapatkan dari sistem tersebut adalah apa yang Anda investasikan ke dalamnya. Anda tidak akan melihat keluaran berbahaya tanpa masukan berbahaya. Tetapi sebagai Google CISO Phil Venables mengatakan dalam podcast baru-baru ini, โ€œUntuk menerapkan sistem AI, Anda harus memikirkan manajemen input dan output.โ€
Kompleksitas sistem AI dan sifat dinamisnya membuat sistem ini lebih sulit diamankan dibandingkan sistem tradisional. Kehati-hatian harus dilakukan pada tahap masukan, untuk memantau apa yang masuk ke dalam sistem AI, dan pada tahap keluaran, untuk memastikan keluaran benar dan dapat dipercaya.

Menerapkan Kerangka AI yang Aman

Melindungi sistem AI dan mengantisipasi ancaman baru adalah prioritas utama untuk memastikan sistem AI berfungsi sebagaimana mestinya. Kerangka AI Aman Google (SAIF) dan itu Mengamankan AI: Serupa atau Berbeda? Laporan ini adalah awal yang baik, memberikan gambaran umum tentang cara memikirkan dan mengatasi tantangan keamanan tertentu dan kerentanan baru terkait pengembangan AI.

SAIF memulai dengan membangun pemahaman yang jelas tentang alat AI apa yang akan digunakan organisasi Anda dan masalah bisnis spesifik apa yang akan mereka atasi. Mendefinisikan hal ini terlebih dahulu sangatlah penting karena akan memungkinkan Anda memahami siapa saja di organisasi Anda yang akan terlibat dan data apa yang perlu diakses oleh alat tersebut (yang akan membantu tata kelola data yang ketat dan praktik keamanan konten yang diperlukan untuk mengamankan AI). Ada baiknya juga untuk mengomunikasikan kasus penggunaan dan batasan AI yang sesuai di seluruh organisasi Anda; kebijakan ini dapat membantu mencegah penggunaan alat AI secara tidak resmi oleh โ€œTI bayanganโ€.

Setelah mengidentifikasi dengan jelas jenis alat dan kasus penggunaannya, organisasi Anda harus membentuk tim untuk mengelola dan memantau alat AI. Tim tersebut harus mencakup tim TI dan keamanan Anda, tetapi juga melibatkan tim manajemen risiko dan departemen hukum Anda, serta mempertimbangkan masalah privasi dan etika.

Setelah Anda mengidentifikasi tim, saatnya memulai pelatihan. Untuk mengamankan AI dengan baik di organisasi Anda, Anda harus memulai dengan panduan yang membantu semua orang memahami apa itu alat, apa fungsinya, dan di mana kesalahannya. Ketika suatu alat sampai ke tangan karyawan yang tidak terlatih dalam kemampuan dan kekurangan AI, hal ini secara signifikan meningkatkan risiko terjadinya insiden bermasalah.

Setelah mengambil langkah awal ini, Anda telah meletakkan dasar untuk mengamankan AI di organisasi Anda. Ada enam elemen inti SAIF Google yang harus Anda terapkan, dimulai dengan fondasi yang aman secara default dan berlanjut hingga menciptakan siklus koreksi dan umpan balik yang efektif menggunakan teaming merah.

Elemen penting lainnya dalam mengamankan AI adalah menjaga agar manusia tetap mengetahui informasi sebanyak mungkin, sekaligus menyadari bahwa peninjauan manual terhadap alat AI bisa menjadi lebih baik. Pelatihan sangat penting seiring kemajuan Anda dalam menggunakan AI di organisasi Anda โ€” pelatihan dan pelatihan ulang, bukan tentang alat itu sendiri, tetapi tentang tim Anda. Ketika AI bergerak melampaui apa yang dipahami dan dapat diperiksa ulang oleh manusia di organisasi Anda, risiko masalah meningkat dengan cepat.

Keamanan AI berkembang dengan cepat, dan sangat penting bagi mereka yang bekerja di lapangan untuk tetap waspada. Sangat penting untuk mengidentifikasi potensi ancaman baru dan mengembangkan tindakan pencegahan untuk mencegah atau memitigasinya sehingga AI dapat terus membantu perusahaan dan individu di seluruh dunia.

Baca lebih lanjut Perspektif Mitra dari Google Cloud

Stempel Waktu:

Lebih dari Bacaan gelap