A cura di AI Trends Staff
Sebbene l'intelligenza artificiale nelle assunzioni sia ora ampiamente utilizzata per scrivere descrizioni di posti di lavoro, selezionare i candidati e automatizzare i colloqui, se non viene implementata con attenzione, rappresenta un rischio di ampia discriminazione.
Questo è stato il messaggio di Keith Sonderling, Commissario della Commissione per le Pari Opportunità degli Stati Uniti, parlando al Governo mondiale AI evento tenutosi dal vivo e virtualmente ad Alessandria, in Virginia, la scorsa settimana. Sonderling è responsabile dell'applicazione delle leggi federali che vietano la discriminazione nei confronti dei candidati a un lavoro a causa di razza, colore della pelle, religione, sesso, nazionalità, età o disabilità.
"Il pensiero che l'intelligenza artificiale sarebbe diventata mainstream nei dipartimenti delle risorse umane era più vicino alla fantascienza due anni fa, ma la pandemia ha accelerato la velocità con cui l'intelligenza artificiale viene utilizzata dai datori di lavoro", ha affermato. "Il reclutamento virtuale ora è qui per restare".
È un periodo impegnativo per i professionisti delle risorse umane. "Le grandi dimissioni stanno portando alla grande riassunzione e l'intelligenza artificiale svolgerà un ruolo in questo come non abbiamo mai visto prima", ha affermato Sonderling.
L'intelligenza artificiale è stata impiegata per anni nell'assunzione - "Non è successo dall'oggi al domani" - per compiti tra cui chattare con le candidature, prevedere se un candidato avrebbe accettato il lavoro, proiettare che tipo di dipendente sarebbe e mappare le opportunità di miglioramento e riqualificazione. "In breve, l'intelligenza artificiale ora sta prendendo tutte le decisioni una volta prese dal personale delle risorse umane", che non ha caratterizzato come buone o cattive.
"Progettata con cura e utilizzata correttamente, l'intelligenza artificiale ha il potenziale per rendere il luogo di lavoro più equo", ha affermato Sonderling. "Ma implementata con noncuranza, l'intelligenza artificiale potrebbe discriminare su una scala che non abbiamo mai visto prima da un professionista delle risorse umane".
Set di dati di formazione per modelli di intelligenza artificiale utilizzati per l'assunzione Necessità di riflettere la diversità
Questo perché i modelli di intelligenza artificiale si basano sui dati di addestramento. Se l'attuale forza lavoro dell'azienda viene utilizzata come base per la formazione, “Replicherà lo status quo. Se è principalmente un genere o una razza, lo replicherà”, ha detto. Al contrario, l'intelligenza artificiale può aiutare a mitigare i rischi di assunzione di pregiudizi per razza, origine etnica o stato di disabilità. "Voglio vedere l'intelligenza artificiale migliorare la discriminazione sul posto di lavoro", ha affermato.
Amazon ha iniziato a creare una domanda di assunzione nel 2014 e ha scoperto nel tempo di discriminare le donne nelle sue raccomandazioni, perché il modello di intelligenza artificiale è stato addestrato su un set di dati del record di assunzioni dell'azienda per i 10 anni precedenti, che era principalmente di uomini. Gli sviluppatori di Amazon hanno provato a correggerlo, ma alla fine hanno scartato il sistema nel 2017.
Facebook ha recentemente accettato di pagare 14.25 milioni di dollari per risolvere le cause civili del governo degli Stati Uniti secondo cui la società di social media ha discriminato i lavoratori americani e violato le regole federali di reclutamento, secondo un account di Reuters. Il caso era incentrato sull'uso da parte di Facebook di quello che chiamava il suo programma PERM per la certificazione del lavoro. Il governo ha scoperto che Facebook ha rifiutato di assumere lavoratori americani per lavori che erano stati riservati ai titolari di visti temporanei nell'ambito del programma PERM.
"Escludere le persone dal pool di assunzione è una violazione", ha detto Sonderling. Se il programma di intelligenza artificiale "rimuove l'esistenza dell'opportunità di lavoro a quella classe, quindi non possono esercitare i propri diritti, o se declassa una classe protetta, è nel nostro dominio", ha affermato.
Le valutazioni dell'occupazione, che sono diventate più comuni dopo la seconda guerra mondiale, hanno fornito un alto valore ai responsabili delle risorse umane e, con l'aiuto dell'intelligenza artificiale, hanno il potenziale per ridurre al minimo i pregiudizi nelle assunzioni. "Allo stesso tempo, sono vulnerabili alle denunce di discriminazione, quindi i datori di lavoro devono stare attenti e non possono adottare un approccio disinteressato", ha affermato Sonderling. “I dati imprecisi amplificheranno i pregiudizi nel processo decisionale. I datori di lavoro devono essere vigili contro gli esiti discriminatori”.
Ha consigliato di cercare soluzioni da fornitori che controllano i dati per i rischi di parzialità sulla base di razza, sesso e altri fattori.
Un esempio è da HireVue di South Jordan, Utah, che ha costruito una piattaforma di assunzione basata sulle Linee guida uniformi della Commissione per le pari opportunità degli Stati Uniti, progettata specificamente per mitigare le pratiche di assunzione sleali, secondo un resoconto di tuttoLavoro.
Un post sui principi etici dell'AI sul suo sito web afferma in parte: "Poiché HireVue utilizza la tecnologia AI nei nostri prodotti, lavoriamo attivamente per prevenire l'introduzione o la propagazione di pregiudizi contro qualsiasi gruppo o individuo. Continueremo a esaminare attentamente i set di dati che utilizziamo nel nostro lavoro e ad assicurarci che siano quanto più accurati e diversificati possibile. Continuiamo inoltre a migliorare le nostre capacità di monitorare, rilevare e mitigare i pregiudizi. Ci sforziamo di creare team con background diversi con conoscenze, esperienze e prospettive diverse per rappresentare al meglio le persone servite dai nostri sistemi”.
Inoltre, “I nostri data scientist e psicologi IO creano algoritmi di valutazione HireVue in modo da rimuovere i dati dalla considerazione da parte dell'algoritmo che contribuisce all'impatto negativo senza influire in modo significativo sull'accuratezza predittiva della valutazione. Il risultato è una valutazione altamente valida e attenuata dai pregiudizi che aiuta a migliorare il processo decisionale umano promuovendo attivamente la diversità e le pari opportunità indipendentemente dal genere, dall'etnia, dall'età o dallo stato di disabilità".
Il problema della distorsione nei set di dati utilizzati per addestrare i modelli di intelligenza artificiale non si limita alle assunzioni. Il Dr. Ed Ikeguchi, CEO di AiCure, una società di analisi dell'intelligenza artificiale che opera nel settore delle scienze della vita, ha dichiarato in un recente resoconto in SanitàITNews, "L'intelligenza artificiale è forte quanto i dati che riceve, e ultimamente la credibilità di quella spina dorsale dei dati è sempre più messa in discussione. Gli sviluppatori di intelligenza artificiale di oggi non hanno accesso a set di dati ampi e diversificati su cui addestrare e convalidare nuovi strumenti".
Ha aggiunto: "Spesso hanno bisogno di sfruttare set di dati open source, ma molti di questi sono stati formati utilizzando volontari programmatori di computer, che è una popolazione prevalentemente bianca. Poiché gli algoritmi sono spesso addestrati su campioni di dati di origine singola con diversità limitata, se applicati in scenari del mondo reale a una popolazione più ampia di diverse razze, generi, età e altro, la tecnologia che sembrava molto accurata nella ricerca potrebbe rivelarsi inaffidabile.
Inoltre, "Deve esserci un elemento di governance e revisione tra pari per tutti gli algoritmi, poiché anche l'algoritmo più solido e testato è destinato a produrre risultati inaspettati. Un algoritmo non finisce mai di imparare-deve essere costantemente sviluppato e alimentato con più dati per migliorare”.
E, “Come settore, dobbiamo diventare più scettici sulle conclusioni dell'IA e incoraggiare la trasparenza nel settore. Le aziende dovrebbero rispondere prontamente alle domande di base, come "Come è stato addestrato l'algoritmo?" Su quali basi ha tratto questa conclusione?”
Leggi gli articoli e le informazioni alla fonte su Governo mondiale AI, From Reuters e di SanitàITNews.
- Coinsmart. Il miglior scambio di bitcoin e criptovalute d'Europa.
- Platoblockchain. Web3 Metaverse Intelligence. Conoscenza amplificata. ACCESSO LIBERO.
- Criptofalco. Radar Altcoin. Prova gratuita.
- Fonte: https://www.aitrends.com/ai-world-government/promise-and-perils-of-using-ai-for-hiring-guard-against-data-bias/
- "
- 100
- 70
- accesso
- Secondo
- Il mio account
- preciso
- AI
- algoritmo
- Algoritmi
- Tutti
- Amazon
- americano
- analitica
- Applicazioni
- applicazioni
- approccio
- news
- auto
- base
- essendo
- MIGLIORE
- costruire
- Costruzione
- ceo
- Certificazione
- chat
- più vicino
- Uncommon
- Aziende
- azienda
- considerazione
- continua
- potuto
- Corrente
- dati
- Decision Making
- sviluppato
- sviluppatori
- DID
- diverso
- Diversità
- dominio
- incoraggiare
- esempio
- Esercitare
- Esperienze
- Fattori
- fiera
- Federale
- Federale
- Fantasia
- essere trovato
- Sesso
- buono
- la governance
- Enti Pubblici
- grande
- Gruppo
- linee guida
- Aiuto
- aiuta
- qui
- Alta
- vivamente
- assumere
- Affitto
- titolari
- Come
- hr
- HTTPS
- Impact
- implementato
- competenze
- Compreso
- individuale
- industria
- informazioni
- interviste
- problema
- IT
- Lavoro
- Offerte di lavoro
- conoscenze
- lavoro
- grandi
- Legislazione
- principale
- Leva
- Life Sciences
- Limitato
- corrente principale
- Fare
- Media
- milione
- modello
- modelli
- maggior parte
- il
- Opportunità
- Opportunità
- Altro
- pandemia
- Paga le
- Persone
- Personale
- prospettive
- piattaforma
- Giocare
- pool
- popolazione
- possibile
- Prodotti
- professionale
- Scelto dai professionisti
- Programma
- domanda
- Gara
- record
- reclutamento
- religione
- riparazioni
- Dimissioni
- responsabile
- Risultati
- Reuters
- recensioni
- Rischio
- norme
- Suddetto
- Scala
- Scienze
- SCIENZE
- scienziati
- Sesso
- Corti
- So
- Social
- Social Media
- Soluzioni
- Sud
- in particolare
- stati
- Stato dei servizi
- soggiorno
- forte
- sistema
- SISTEMI DI TRATTAMENTO
- task
- Tech
- Tecnologia
- temporaneo
- L’ORIGINE
- tempo
- strumenti
- Training
- Trasparenza
- tendenze
- us
- noi governo
- APPREZZIAMO
- fornitori
- Visa
- Vulnerabile
- guerra
- Sito web
- settimana
- Che
- se
- OMS
- entro
- senza
- Donna
- Lavora
- lavoratori
- Forza lavoro
- lavoro
- Sul posto di lavoro
- mondo
- scrittura
- anno
- anni