Oleh Staf AI Trends
Sementara AI dalam perekrutan sekarang banyak digunakan untuk menulis deskripsi pekerjaan, menyaring kandidat, dan mengotomatisasi wawancara, itu menimbulkan risiko diskriminasi yang luas jika tidak diterapkan dengan hati-hati.
Itulah pesan dari Keith Sonderling, Komisaris Komisi Kesetaraan Kesempatan AS, berbicara di Pemerintah Dunia AI acara yang diadakan secara langsung dan virtual di Alexandria, Va., minggu lalu. Sonderling bertanggung jawab untuk menegakkan undang-undang federal yang melarang diskriminasi terhadap pelamar kerja karena ras, warna kulit, agama, jenis kelamin, asal negara, usia, atau disabilitas.
“Pemikiran bahwa AI akan menjadi arus utama di departemen SDM lebih dekat dengan fiksi ilmiah dua tahun lalu, tetapi pandemi telah mempercepat tingkat penggunaan AI oleh pengusaha,” katanya. “Perekrutan virtual sekarang di sini untuk tinggal.”
Ini adalah waktu yang sibuk bagi para profesional HR. “Pengunduran diri yang besar mengarah pada perekrutan kembali yang hebat, dan AI akan memainkan peran dalam hal yang belum pernah kita lihat sebelumnya,” kata Sonderling.
AI telah digunakan selama bertahun-tahun dalam perekrutan—“Itu tidak terjadi dalam semalam.”—untuk tugas-tugas termasuk mengobrol dengan aplikasi, memprediksi apakah seorang kandidat akan mengambil pekerjaan itu, memproyeksikan tipe karyawan seperti apa mereka dan memetakan peluang peningkatan keterampilan dan keterampilan ulang. “Singkatnya, AI sekarang membuat semua keputusan yang pernah dibuat oleh personel SDM,” yang tidak dia sebut sebagai baik atau buruk.
“Dirancang dengan hati-hati dan digunakan dengan benar, AI memiliki potensi untuk membuat tempat kerja lebih adil,” kata Sonderling. “Tetapi jika diterapkan secara sembarangan, AI dapat melakukan diskriminasi dalam skala yang belum pernah kita lihat sebelumnya oleh seorang profesional SDM.”
Kumpulan Data Pelatihan untuk Model AI yang Digunakan untuk Mempekerjakan Kebutuhan untuk Mencerminkan Keragaman
Ini karena model AI mengandalkan data pelatihan. Jika tenaga kerja perusahaan saat ini digunakan sebagai dasar pelatihan, “Itu akan meniru status quo. Jika itu satu jenis kelamin atau satu ras terutama, itu akan meniru itu, ”katanya. Sebaliknya, AI dapat membantu mengurangi risiko bias perekrutan berdasarkan ras, latar belakang etnis, atau status disabilitas. “Saya ingin melihat AI meningkatkan diskriminasi di tempat kerja,” katanya.
Amazon mulai membuat aplikasi perekrutan pada tahun 2014, dan seiring waktu menemukan bahwa aplikasi tersebut mendiskriminasi wanita dalam rekomendasinya, karena model AI dilatih pada kumpulan data catatan perekrutan perusahaan sendiri selama 10 tahun sebelumnya, yang sebagian besar adalah pria. Pengembang Amazon mencoba memperbaikinya tetapi akhirnya membatalkan sistem pada tahun 2017.
Facebook baru-baru ini setuju untuk membayar $ 14.25 juta untuk menyelesaikan klaim perdata oleh pemerintah AS bahwa perusahaan media sosial mendiskriminasi pekerja Amerika dan melanggar aturan perekrutan federal, menurut akun dari Reuters. Kasus ini berpusat pada penggunaan Facebook atas apa yang disebutnya program PERM untuk sertifikasi tenaga kerja. Pemerintah menemukan bahwa Facebook menolak mempekerjakan pekerja Amerika untuk pekerjaan yang telah disediakan untuk pemegang visa sementara di bawah program PERM.
“Mengeluarkan orang dari kelompok perekrutan adalah pelanggaran,” kata Sonderling. Jika program AI “menahan adanya kesempatan kerja untuk kelas itu, sehingga mereka tidak dapat menggunakan haknya, atau jika itu menurunkan kelas yang dilindungi, itu adalah dalam domain kami,” katanya.
Penilaian pekerjaan, yang menjadi lebih umum setelah Perang Dunia II, telah memberikan nilai tinggi bagi manajer SDM dan dengan bantuan AI, mereka memiliki potensi untuk meminimalkan bias dalam perekrutan. “Pada saat yang sama, mereka rentan terhadap klaim diskriminasi, jadi pengusaha harus berhati-hati dan tidak boleh mengambil pendekatan lepas tangan,” kata Sonderling. “Data yang tidak akurat akan memperkuat bias dalam pengambilan keputusan. Pengusaha harus waspada terhadap hasil yang diskriminatif.”
Dia merekomendasikan penelitian solusi dari vendor yang memeriksa data untuk risiko bias berdasarkan ras, jenis kelamin, dan faktor lainnya.
Salah satu contohnya adalah dari HireVue South Jordan, Utah, yang telah membangun platform perekrutan yang didasarkan pada Pedoman Seragam Komisi Persamaan Kesempatan AS, yang dirancang khusus untuk mengurangi praktik perekrutan yang tidak adil, menurut akun dari semuaPekerjaan.
Sebuah posting tentang prinsip-prinsip etika AI di situs webnya sebagian menyatakan, “Karena HireVue menggunakan teknologi AI dalam produk kami, kami secara aktif bekerja untuk mencegah pengenalan atau penyebaran bias terhadap kelompok atau individu mana pun. Kami akan terus meninjau dengan cermat kumpulan data yang kami gunakan dalam pekerjaan kami dan memastikan bahwa mereka seakurat dan seragam mungkin. Kami juga terus meningkatkan kemampuan kami untuk memantau, mendeteksi, dan mengurangi bias. Kami berusaha untuk membangun tim dari beragam latar belakang dengan beragam pengetahuan, pengalaman, dan perspektif untuk mewakili orang-orang yang dilayani sistem kami dengan sebaik-baiknya.”
Juga, “Ilmuwan data dan psikolog IO kami membangun algoritme Penilaian HireVue dengan cara menghilangkan data dari pertimbangan oleh algoritme yang berkontribusi terhadap dampak buruk tanpa secara signifikan memengaruhi akurasi prediksi penilaian. Hasilnya adalah penilaian bias yang sangat valid yang membantu meningkatkan pengambilan keputusan manusia sambil secara aktif mempromosikan keragaman dan kesempatan yang setara tanpa memandang jenis kelamin, etnis, usia, atau status disabilitas.”
Masalah bias dalam kumpulan data yang digunakan untuk melatih model AI tidak terbatas pada perekrutan. Dr. Ed Ikeguchi, CEO AiCure, sebuah perusahaan analitik AI yang bekerja di industri ilmu kehidupan, menyatakan dalam akun baru-baru ini di Berita IT Kesehatan, "AI hanya sekuat data yang diberikannya, dan akhir-akhir ini kredibilitas tulang punggung data itu semakin dipertanyakan. Pengembang AI saat ini tidak memiliki akses ke kumpulan data yang besar dan beragam untuk melatih dan memvalidasi alat baru.”
Dia menambahkan, “Mereka sering perlu memanfaatkan kumpulan data sumber terbuka, tetapi banyak dari ini dilatih menggunakan sukarelawan pemrogram komputer, yang sebagian besar merupakan populasi kulit putih. Karena algoritme sering dilatih pada sampel data asal tunggal dengan keragaman terbatas, ketika diterapkan dalam skenario dunia nyata ke populasi yang lebih luas dari berbagai ras, jenis kelamin, usia, dan banyak lagi, teknologi yang tampak sangat akurat dalam penelitian mungkin terbukti tidak dapat diandalkan.”
Juga, “Perlu ada elemen tata kelola dan tinjauan sejawat untuk semua algoritme, karena algoritme yang paling solid dan teruji pun pasti akan menghasilkan hasil yang tidak terduga. Sebuah algoritma tidak pernah selesai belajar-itu harus terus dikembangkan dan diberi lebih banyak data untuk ditingkatkan.”
Dan, “Sebagai sebuah industri, kita perlu menjadi lebih skeptis terhadap kesimpulan AI dan mendorong transparansi dalam industri. Perusahaan harus siap menjawab pertanyaan dasar, seperti 'Bagaimana algoritme dilatih? Atas dasar apa ia menarik kesimpulan ini?”
Baca artikel sumber dan informasi di Pemerintah Dunia AI, FROM Reuters dan dari Berita IT Kesehatan.
- "
- 100
- 70
- mengakses
- Menurut
- Akun
- tepat
- AI
- algoritma
- algoritma
- Semua
- Amazon
- Amerika
- analisis
- Aplikasi
- aplikasi
- pendekatan
- artikel
- mobil
- dasar
- makhluk
- TERBAIK
- membangun
- Bangunan
- ceo
- Sertifikasi
- mengobrol
- klaim
- lebih dekat
- Umum
- Perusahaan
- perusahaan
- pertimbangan
- terus
- bisa
- terbaru
- data
- Pengambilan Keputusan
- dikembangkan
- pengembang
- MELAKUKAN
- berbeda
- Keragaman
- domain
- mendorong
- contoh
- Latihan
- Pengalaman
- faktor
- adil
- Fed
- Federal
- Fiksi
- ditemukan
- Gender
- baik
- pemerintahan
- Pemerintah
- besar
- Kelompok
- pedoman
- membantu
- membantu
- di sini
- High
- sangat
- menyewa
- Mempekerjakan
- pemegang
- Seterpercayaapakah Olymp Trade? Kesimpulan
- hr
- HTTPS
- Dampak
- diimplementasikan
- memperbaiki
- Termasuk
- sendiri-sendiri
- industri
- informasi
- wawancara
- isu
- IT
- Pekerjaan
- Jobs
- pengetahuan
- tenaga kerja
- besar
- Hukum
- terkemuka
- Leverage
- Biologi
- Terbatas
- Arus utama
- Membuat
- Media
- juta
- model
- model
- paling
- nasional
- Peluang
- Kesempatan
- Lainnya
- pandemi
- Membayar
- Konsultan Ahli
- Personil
- perspektif
- Platform
- Bermain
- kolam
- populasi
- mungkin
- Produk
- profesional
- profesional
- program
- pertanyaan
- Ras
- catatan
- perekrutan
- agama
- penelitian
- Pengunduran diri
- tanggung jawab
- Hasil
- Reuters
- ulasan
- Risiko
- aturan
- Tersebut
- Skala
- Ilmu
- ILMU PENGETAHUAN
- ilmuwan
- Seks
- Pendek
- So
- Sosial
- media sosial
- Solusi
- Selatan
- Secara khusus
- Negara
- Status
- tinggal
- kuat
- sistem
- sistem
- tugas
- tech
- Teknologi
- sementara
- Sumber
- waktu
- alat
- Pelatihan
- Transparansi
- Tren
- us
- pemerintah kita
- nilai
- vendor
- Visa
- Rentan
- perang
- Situs Web
- minggu
- Apa
- apakah
- SIAPA
- dalam
- tanpa
- Wanita
- Kerja
- pekerja
- Tenaga kerja
- kerja
- Tempat Kerja
- dunia
- penulisan
- tahun
- tahun