Konsekuensi Mahal dari Pembisik AI yang Tidak Etis (Padma Chukka)

Konsekuensi Mahal dari Pembisik AI yang Tidak Etis (Padma Chukka)

                         Konsekuensi Mahal dari Pembisik AI yang Tidak Etis (Padma Chukka) Kecerdasan Data PlatoBlockchain. Pencarian Vertikal. Ai.

Ya.. Saya berbicara tentang aplikasi AI – banyak aplikasi AI kami dan yang akan datang membisikkan kepada manusia tentang apa yang harus dilakukan…. bagaimana melakukannya… tetapi bukan tentang pembisik yang berinteraksi dengan AI chatbots.

Menurut IDC prediksi, pasar AI global dapat mencapai lebih dari $500 miliar pada tahun 2024 – peningkatan lebih dari 50% dari tahun 2021. Ini menunjukkan bahwa kami beralih dari eksperimen bisnis ke menerima bahwa ini adalah bagian integral dari strategi perusahaan untuk semua ukuran. Ini adalah alat yang diperlukan untuk mengubah data menjadi wawasan untuk memicu tindakan berdasarkan keputusan yang lebih baik. Tidak ada yang memperdebatkan manfaat AI untuk mengurangi risiko bisnis dan meningkatkan ROI dengan inovasi. Tapi, seperti biasa, ada …TAPI… AI yang tidak memihak lebih mudah diucapkan daripada dilakukan.

Penting bagi bisnis, model AI ini perlu beroperasi secara andal dengan visibilitas dan akuntabilitas. Jika tidak, kegagalan, dalam hal ini, memiliki konsekuensi mengerikan yang berdampak pada arus kas perusahaan mana pun dan bahkan mungkin mengakibatkan masalah hukum. Satu-satunya cara untuk menghindari ini adalah otomatisasi dan transparansi untuk menjawab satu pertanyaan "Dapatkah Anda membuktikan bahwa aplikasi/beban kerja AI ini dibangun secara etis." Aka…bagaimana caramu memerintah? Dan dapatkah Anda membuktikan bahwa itu diatur terus menerus?

Di sinilah perusahaan suka IBM telah berinvestasi dalam tata kelola AI untuk mengatur keseluruhan proses dalam mengarahkan, mengelola, dan memantau aktivitas AI organisasi. Tugas utamanya adalah memastikan semua unit bisnis tetap proaktif dan memasukkan kerangka kerja tata kelola ke dalam inisiatif untuk memperkuat kemampuan memenuhi prinsip dan peraturan etika. Terutama, industri yang diatur seperti Perbankan dan jasa keuangan diwajibkan secara hukum untuk memberikan bukti untuk memuaskan regulator.

Pengaruh AI tumbuh secara eksponensial di sektor jasa keuangan karena tekanan luar biasa dari transformasi digital. Seperti yang dikatakan, lebih mudah diucapkan daripada dilakukan karena:

1. Mengoperasikan aplikasi AI dengan percaya diri:

Dalam beberapa kasus, model dibangun tanpa kejelasan dan katalogisasi; tidak perlu dikatakan lagi, pemantauan menyelinap di tengah-tengah segalanya untuk melacak siklus hidup ujung ke ujung. Sementara bank berjuang dengan aplikasi lama, mengotomatiskan proses untuk menciptakan transparansi dan penjelasan menjadi lebih sulit dan, pada gilirannya, menjadi kotak hitam. Tidak ada yang tahu mengapa / bagaimana keputusan dibuat. Aplikasi baru yang terjerat dengan aplikasi lawas tidak pernah melihat siang hari meskipun ROI yang besar dikaitkan dengannya karena kualitas dan risiko yang tidak dirasakan.

Itu membawa kita ke poin kedua – mengelola risiko reputasi

2. Mengelola risiko Reputasi beserta keseluruhan risikonya

saya telah bertanya #obrolanGPT dan #Penyair – siapa Padma Chukka. #ObrolanGPT menolak untuk menjawab meskipun saya mengubah pertanyaan dengan berbagai cara. Tetap saja, Bard memberi saya jawaban terperinci, termasuk profil LinkedIn saya… tetapi data berasal dari berbagai situs di mana profil lama saya masih ada sebagai bagian dari bio speaker. Sejak saat itu, saya belum membuka Bard. Secepat itu, saya dimatikan, alias – Risiko reputasi. Misalkan saya dapat mematikan chatbot sederhana ketika saya menyadari bahwa datanya mungkin tidak konsisten. Bagaimana mungkin saya tidak memastikan sebelum memutuskan untuk membeli aplikasi yang diresapi AI untuk menjalankan bisnis penting? Risiko reputasi merupakan faktor penting yang terkadang dilupakan oleh perusahaan. Jika Anda mengukur risiko reputasi, orang dapat melihat dampak yang luar biasa pada bisnis jika tidak proaktif.

Untuk menambah kerumitan, yang ketiga adalah…

3. Bagaimana perusahaan menanggapi perubahan peraturan AI?

Untuk menghindari risiko reputasi, tim AI yang sukses dan bertanggung jawab harus mengetahui setiap peraturan lokal dan global, yang dirilis seperti video tik-tok dengan pemberitahuan sesaat. Dan ketidakpatuhan pada akhirnya dapat merugikan organisasi dengan denda jutaan dolar di sekitar pekerjaan seperti Undang-Undang Kecerdasan Buatan Uni Eropa yang diusulkan. Mungkin sampai 30 juta Euro atau 6% dari pendapatan global perusahaan – OUCH.

Yah, tidak semuanya harus cerah saat bepergian… selama kita tahu cara mengubah situasi dari menakutkan menjadi cerah.

Tidak mengherankan… selalu tentang orang, proses, dan teknologi. Jadi pertama-tama, buat badan pengatur lintas fungsi untuk mendidik, mengarahkan, dan memantau inisiatif berdasarkan tujuan. Kemudian tolok ukur teknologi dan proses AI saat ini, pahami celahnya, lalu perbaiki untuk pembuktian di masa mendatang. Kemudian gunakan serangkaian alur kerja tata kelola otomatis yang sejalan dengan persyaratan kepatuhan. Terakhir, atur sistem pemantauan untuk memperingatkan pemilik jika ambang batas yang dapat diterima semakin dekat. Dari sisi Teknologi, AI yang dirancang dengan baik, dijalankan dengan baik, dan terhubung dengan baik memerlukan banyak blok bangunan. Dan pastikan itu memiliki beberapa atau semua kemampuan:

· Integritas data di berbagai penerapan

· Gunakan alat yang terbuka dan fleksibel yang mematuhi Tata Kelola AI

· Pastikan untuk menawarkan akses swalayan dengan kontrol privasi – cara untuk melacak

· Desain dengan mempertimbangkan otomatisasi dan tata kelola AI

· Dapat terhubung dan dapat disesuaikan untuk berbagai pemangku kepentingan melalui alur kerja yang dapat disesuaikan

Setelah kami mengubah aplikasi dari menakutkan menjadi Rosy… maka pertanyaan selanjutnya adalah bagaimana Anda membuktikan…

Pertama, kembali ke prinsip-prinsip AI perusahaan – bangun dengan prinsip-prinsip tersebut, namun Anda masih perlu "menunjukkan" bahwa Anda patuh, terutama di lingkungan yang diatur seperti Layanan Keuangan. Karena layanan keuangan harus mengeluh dengan NIST 800-53, mereka dapat melihat Kerangka Manajemen Risiko AI NIST (AI RMF). NIST menyarankan kontrol dalam empat keluarga – Atur, Petakan, Ukur, dan Kelola. Menggunakannya sebagai faktor pemandu dan uji stres aplikasi untuk mengidentifikasi celah yang perlu diperbaiki dan dipantau.

Konsekuensi Mahal dari Pembisik AI yang Tidak Etis (Padma Chukka) Kecerdasan Data PlatoBlockchain. Pencarian Vertikal. Ai.

IBM dapat memvalidasi model Anda sebelum Anda memasukkannya ke dalam produksi, dan dapat dipantau untuk keadilan, kualitas, dan penyimpangan. Itu juga dapat memberikan dokumentasi yang menjelaskan perilaku dan prediksi model untuk memenuhi persyaratan regulator dan auditor. Penjelasan ini dapat memberikan visibilitas dan meringankan kesulitan audit, serta meningkatkan transparansi dan kemampuan untuk menentukan risiko yang mungkin terjadi.

 Dengarkan bisikan AI itu dengan percaya diri!

#Layanan Keuangan #bertanggung jawabai #ethicalai #NISAIRMF

Stempel Waktu:

Lebih dari Fintextra