Mengapa Anda Perlu Mengetahui Nenek Moyang AI Anda

Mengapa Anda Perlu Mengetahui Nenek Moyang AI Anda

Mengapa Anda Perlu Mengetahui Kecerdasan Data PlatoBlockchain Leluhur AI Anda. Pencarian Vertikal. Ai.

KOMENTAR

Kecerdasan buatan (AI) dengan cepat mengubah hampir setiap aspek kehidupan kita sehari-hari, mulai dari cara kita bekerja, cara kita mencerna informasi, hingga cara kita menentukan pemimpin. Seperti halnya teknologi apa pun, AI tidak bermoral, tetapi dapat digunakan untuk memajukan masyarakat atau masyarakat memberikan kerugian.

Data adalah gen yang mendukung aplikasi AI. Itu adalah DNA dan RNA yang semuanya dibungkus menjadi satu. Seperti yang sering dikatakan ketika membangun sistem perangkat lunak: โ€œsampah masuk/keluar.โ€ Teknologi AI akurat, aman, dan berfungsi jika sumber datanya diandalkan. Kunci untuk memastikan bahwa AI memenuhi janjinya dan menghindari mimpi buruknya terletak pada kemampuan untuk membuang sampah dan mencegahnya berkembang biak dan bereplikasi di jutaan aplikasi AI.

Hal ini disebut asal data, dan kita tidak bisa menunggu lagi untuk menerapkan pengendalian yang mencegah masa depan AI kita menjadi tumpukan sampah besar.

Data yang buruk menghasilkan model AI yang dapat menyebarkan kerentanan keamanan siber, misinformasi, dan serangan lainnya secara global dalam hitungan detik. hari ini AI generatif Model (GenAI) sangatlah kompleks, namun pada intinya, model GenAI hanya memprediksi kumpulan data terbaik berikutnya yang akan dihasilkan, berdasarkan kumpulan data yang sudah ada sebelumnya.

Pengukuran Akurasi

Model tipe ChatGPT mengevaluasi kumpulan kata yang membentuk pertanyaan awal yang diajukan dan semua kata dalam respons model sejauh ini untuk menghitung kata terbaik berikutnya yang akan dihasilkan. Ia melakukan hal ini berulang kali hingga ia memutuskan bahwa ia telah memberikan respons yang cukup. Misalkan Anda mengevaluasi kemampuan model untuk merangkai kata-kata yang membentuk kalimat yang tersusun dengan baik dan benar secara tata bahasa, sesuai topik dan umumnya relevan dengan percakapan. Dalam hal ini, model saat ini sangat bagus โ€” dalam hal pengukuran akurasi.

Selami lebih dalam apakah teks yang dihasilkan AI selalu menyampaikan informasi yang โ€œbenarโ€. dan secara tepat menunjukkan tingkat kepercayaan informasi yang disampaikan. Hal ini mengungkap masalah yang berasal dari model yang memprediksi rata-rata dengan sangat baik, namun tidak begitu baik pada kasus-kasus edge โ€“ yang mewakili masalah ketahanan. Hal ini dapat diperparah ketika keluaran data yang buruk dari model AI disimpan secara online dan digunakan sebagai data pelatihan di masa mendatang untuk model ini dan model lainnya.

Output yang buruk dapat direplikasi pada skala yang belum pernah kita lihat sebelumnya, sehingga menyebabkan penurunan siklus AI.

Jika pelaku kejahatan ingin membantu proses ini, mereka dapat dengan sengaja mendorong agar data buruk tambahan diproduksi, disimpan, dan disebarkan โ€” sehingga menyebabkan lebih banyak misinformasi yang keluar dari chatbot, atau sesuatu yang jahat dan menakutkan seperti model autopilot mobil yang memutuskan bahwa mereka perlu melakukan hal tersebut. membelokkan mobil dengan cepat ke kanan meskipun ada benda yang menghalangi jika mereka โ€œmelihatโ€ gambar yang dibuat khusus di depannya (tentu saja secara hipotetis).

Setelah beberapa dekade, industri pengembangan perangkat lunak โ€“ yang dipimpin oleh Badan Keamanan Infrastruktur Keamanan Siber โ€“ akhirnya menerapkan a aman-oleh-desain kerangka. Aman sesuai desain mengamanatkan bahwa keamanan siber adalah fondasi dari proses pengembangan perangkat lunak, dan salah satu prinsip intinya adalah mewajibkan pembuatan katalog setiap komponen pengembangan perangkat lunak โ€” sebuah perangkat lunak bill of material (SBOM) โ€” untuk meningkatkan keamanan dan ketahanan. Terakhir, keamanan menggantikan kecepatan sebagai faktor terpenting dalam memasuki pasar.

Mengamankan Desain AI

AI membutuhkan hal serupa. Putaran umpan balik AI mencegah teknik pertahanan keamanan siber yang umum dilakukan di masa lalu, seperti melacak tanda tangan malware, membangun perimeter di sekitar sumber daya jaringan, atau memindai kode yang ditulis manusia untuk mencari kerentanan. Kita harus menjadikan desain AI yang aman sebagai persyaratan selama masa pertumbuhan teknologi sehingga AI dapat dibuat aman jauh sebelum kotak Pandora dibuka.

Jadi, bagaimana kita mengatasi masalah ini? Kita harus mengambil satu halaman dari dunia akademis. Kami melatih siswa dengan data pelatihan yang sangat terkurasi, ditafsirkan dan disampaikan kepada mereka melalui industri guru. Kami melanjutkan pendekatan ini untuk mengajar orang dewasa, namun orang dewasa diharapkan melakukan lebih banyak kurasi data sendiri.

Pelatihan model AI perlu menggunakan pendekatan data dua tahap yang dikurasi. Untuk memulainya, model AI dasar akan dilatih menggunakan metodologi yang ada saat ini dengan menggunakan sejumlah besar kumpulan data yang kurang dikurasi. Model bahasa besar dasar (LLM) ini kira-kira dapat dianalogikan dengan bayi yang baru lahir. Model tingkat dasar kemudian akan dilatih dengan kumpulan data yang sangat terkurasi, serupa dengan cara anak-anak diajar dan dibesarkan hingga menjadi dewasa.

Upaya untuk membangun kumpulan data pelatihan yang besar dan terkurasi untuk semua jenis tujuan tidaklah kecil. Hal ini serupa dengan seluruh upaya yang dilakukan orang tua, sekolah, dan masyarakat dalam menyediakan lingkungan yang berkualitas dan informasi yang berkualitas bagi anak-anak seiring mereka tumbuh menjadi kontributor yang (semoga) berfungsi dan bernilai tambah bagi masyarakat. Ini adalah tingkat upaya yang diperlukan untuk membangun kumpulan data berkualitas untuk melatih model AI yang berkualitas, berfungsi dengan baik, dan memiliki tingkat kerusakan minimal, dan hal ini dapat menyebabkan seluruh industri AI dan manusia bekerja sama untuk mengajarkan model AI agar mampu mencapai tujuannya. .

Proses pelatihan AI saat ini menunjukkan beberapa tanda dari proses dua tahap ini. Namun, karena teknologi GenAI dan industri masih dalam masa pertumbuhan, terlalu banyak pelatihan memerlukan pendekatan tahap pertama yang kurang terkurasi.

Terkait keamanan AI, kita tidak bisa menunggu satu jam, apalagi satu dekade. AI memerlukan aplikasi 23andMe yang memungkinkan peninjauan lengkap โ€œsilsilah algoritmaโ€ sehingga pengembang dapat sepenuhnya memahami sejarah โ€œkeluargaโ€ AI untuk mencegah replikasi masalah kronis, menginfeksi sistem penting yang kita andalkan setiap hari, dan menciptakan kerugian ekonomi dan sosial. itu mungkin tidak dapat diubah.

Keamanan nasional kita bergantung padanya.

Stempel Waktu:

Lebih dari Bacaan gelap