Kerentanan Keamanan Siber AI agar Pendidik Mewaspadai Kecerdasan Data PlatoBlockchain. Pencarian Vertikal. Ai.

Kerentanan Keamanan Siber AI yang Harus Diwaspadai Pendidik

AI mungkin merupakan alat yang berharga dalam pendidikan, tetapi juga menimbulkan beberapa kerentanan keamanan siber utama yang harus diwaspadai oleh para pendidik. Ada semakin banyak cara peretas dapat mengeksploitasi kelemahan AI dan melewati sistem keamanan AI. Berikut ini adalah kerentanan keamanan AI teratas yang sedang meningkat saat ini dan bagaimana kerentanan tersebut dapat memengaruhi pendidikan.

Data Pelatihan AI yang Disusupi

Algoritme AI bisa sangat berguna dalam pendidikan, tetapi sifat kotak hitam sebagian besar AI menimbulkan kerentanan keamanan siber yang serius. Algoritma dilatih menggunakan kumpulan data pelatihan yang mengajarkan AI untuk memahami atau mengenali sesuatu. Misalnya, AI mungkin dilatih untuk memahami masalah aljabar kelas 8 sehingga dapat menilai pekerjaan rumah.

Namun, cara algoritme AI memproses informasi disembunyikan di dalam kotak hitam, yang berarti gangguan dan bias dapat luput dari perhatian. AI mungkin secara tidak sengaja mempelajari sesuatu secara tidak benar atau membuat koneksi palsu dari data pelatihan. Sifat kotak hitam AI juga berarti data pelatihan yang diracuni dapat luput dari perhatian.

Peretas dapat mencemari data pelatihan untuk menyertakan a pintu belakang tersembunyi di AI logika. Ketika peretas menginginkan akses ke sistem di mana AI akan digunakan, mereka cukup memasukkan kunci untuk pintu belakang dan AI akan mengenalinya dari data pelatihan. Pintu belakang seperti ini bisa sangat sulit dideteksi karena pengembang dan pengguna tidak dapat melihat semua koneksi yang terjadi di kotak hitam AI.

โ€œCara algoritme AI memproses informasi disembunyikan di dalam kotak hitam, yang berarti gangguan dan bias dapat luput dari perhatian.โ€ 

Peretas Beradaptasi

Membuat pintu belakang dalam data pelatihan AI adalah proses yang kompleks dan memakan waktu dan sesuatu yang hanya dapat dilakukan oleh peretas yang sangat terampil. Sayangnya, peretas mengadaptasi strategi serangan mereka untuk melewati kemampuan berburu ancaman AI. Bahkan, para peretas bahkan membuat algoritme AI mereka sendiri yang dapat mengakali algoritme lain.

Misalnya, peretas telah mengembangkan AI yang dapat memecahkan kata sandi secara mandiri untuk melewati sistem manajemen akses. Lebih buruk lagi, peretas menggunakan AI untuk membuat ransomware dan malware mereka cukup pintar untuk melewati protokol keamanan yang didukung AI.

Ini merupakan ancaman serius bagi pendidikan karena sekolah perlu mengumpulkan sejumlah besar informasi pribadi tentang siswa dan keluarga. Data sekolah adalah target yang sangat menarik bagi peretas, yang tahu bahwa mengompromikan data itu akan menyebabkan kepanikan, berpotensi menyebabkan pembayaran ransomware yang besar dari para korban.

Dengan risiko sistem keamanan AI, pendidik mungkin khawatir tentang apa yang dapat mereka lakukan untuk membela siswa mereka. Ada solusi, meskipun. Misalnya, sistem AI berbasis cloud mungkin lebih aman daripada yang berbasis pada pusat data konvensional. Plus, sistem perlindungan data cloud-cerdas, yang dibangun khusus untuk sistem cloud-asli, dapat memberikan lapisan keamanan ekstra untuk data sekolah jika terjadi serangan siber AI.

Deepfake dan Pengenalan Gambar yang Salah

Selain pintu belakang, peretas juga dapat mengeksploitasi gangguan yang tidak disengaja dalam algoritme AI. Misalnya, peretas dapat mengubah foto untuk mengelabui AI agar salah mengenali gambar.

Teknologi deepfake juga dapat digunakan untuk menyamarkan file video, foto, atau audio sebagai sesuatu yang bukan. Ini dapat digunakan untuk membuat video penipuan dari seorang guru atau administrator, misalnya. Deepfake dapat memungkinkan peretas untuk masuk ke sistem yang mengandalkan pengenalan audio atau gambar untuk kontrol akses.

Peretas dapat memanfaatkan AI sendiri untuk membuat deepfake yang sangat realistis yang kemudian menjadi mode serangan. Misalnya, skema penipuan 2021 menggunakan AI deepfake untuk mencuri $35 juta dari bank Hong Kong.

Peretas dapat mempersenjatai AI dengan cara yang sama untuk membuat deepfake suara orang tua, guru, atau administrator. Mereka melancarkan serangan dengan menelepon seseorang di telepon dan menipu mereka dengan deepfake berbasis suara. Ini dapat digunakan untuk mencuri uang atau informasi pribadi dari sekolah, siswa, guru, dan keluarga.

โ€œData sekolah adalah target yang sangat menarik bagi peretas, yang tahu bahwa mengompromikan data itu akan menyebabkan kepanikan, berpotensi menyebabkan pembayaran ransomware yang tinggi dari para korban.โ€ 

Ketergantungan pada AI untuk Pengujian dan Bimbingan

AI sangat bagus untuk mengotomatisasi berbagai aspek pendidikan dan bahkan dapat meningkatkan kualitas pendidikan siswa. Misalnya, situs web les bahasa populer Duolingo menggunakan pembelajaran mesin AI untuk membantu siswa belajar dengan kecepatan mereka sendiri. Banyak sekolah dan sumber pendidikan lain menggunakan teknologi serupa saat ini. Ini dikenal sebagai pembelajaran AI adaptif, dan bahkan membantu tugas-tugas penting seperti penilaian tes.

Sayangnya, ketergantungan pada AI ini adalah kerentanan keamanan siber. Peretas cenderung menargetkan sistem yang sangat penting untuk pengoperasian sistem utama. Jadi, jika pendidik mengandalkan alat bimbingan AI tertentu agar siswa berhasil menyelesaikan tugas kuliah, ketergantungan pada AI itu dapat dimanfaatkan oleh peretas. Mereka dapat meluncurkan serangan ransomware pada algoritme AI pendidikan kritis atau bahkan mungkin memanipulasi AI itu sendiri.

Kerentanan khusus ini merupakan kombinasi dari beberapa ancaman yang disebutkan di atas. Peretas dapat membuat pintu belakang dalam AI yang memungkinkan mereka mengubah algoritme sehingga algoritme dinilai salah atau mengajarkan informasi yang salah kepada siswa.

โ€œJika pendidik mengandalkan alat bimbingan AI tertentu agar siswa berhasil menyelesaikan kursus, ketergantungan pada AI itu dapat dieksploitasi oleh peretas.โ€ 

Tetap Waspadai Ancaman Cyber โ€‹โ€‹Pendidikan

Tidak ada keraguan bahwa AI dapat menjadi alat yang sangat berharga bagi pendidik. Namun, menggunakan AI membutuhkan kehati-hatian dan pendekatan proaktif terhadap keamanan siber untuk melindungi kerentanan AI agar tidak dieksploitasi oleh peretas.

Ketika AI ada di mana-mana dalam pendidikan dan kehidupan sehari-hari, peretas mengembangkan jenis serangan siber baru yang dirancang untuk menggagalkan sistem keamanan cerdas. Dengan tetap waspada terhadap ancaman dunia maya yang muncul ini, pendidik dapat mengambil tindakan untuk melindungi sistem dan siswa mereka.

Baca juga 5 Cara Robotika Akan Membantu Anda Mendapatkan Lebih Banyak Bisnis

Stempel Waktu:

Lebih dari Teknologi AIIOT