Af AI Trends Staff
Mens AI i ansættelser nu er meget brugt til at skrive jobbeskrivelser, screene kandidater og automatisere interviews, udgør det en risiko for bred diskrimination, hvis det ikke implementeres omhyggeligt.
Det var budskabet fra Keith Sonderling, kommissær for US Equal Opportunity Commission, der talte på AI verdensregering begivenhed afholdt live og virtuelt i Alexandria, Va., i sidste uge. Sonderling er ansvarlig for at håndhæve føderale love, der forbyder diskrimination af jobansøgere på grund af race, hudfarve, religion, køn, national oprindelse, alder eller handicap.
"Tanken om, at AI ville blive mainstream i HR-afdelinger var tættere på science fiction for to år siden, men pandemien har accelereret den hastighed, hvormed AI bliver brugt af arbejdsgivere," sagde han. "Virtuel rekruttering er nu kommet for at blive."
Det er en travl tid for HR-professionelle. "Den store opsigelse fører til den store genansættelse, og AI vil spille en rolle i det, som vi ikke har set før," sagde Sonderling.
AI har været ansat i årevis til at ansætte – "Det skete ikke fra den ene dag til den anden." – til opgaver, herunder at chatte med ansøgninger, forudsige om en kandidat ville tage jobbet, fremskrive hvilken type medarbejder de ville være og kortlægge muligheder for opkvalificering og omskoling. "Kort sagt, AI træffer nu alle de beslutninger, der engang blev truffet af HR-personale," som han ikke karakteriserede som gode eller dårlige.
"Omhyggeligt designet og korrekt brugt, AI har potentialet til at gøre arbejdspladsen mere retfærdig," sagde Sonderling. "Men skødesløst implementeret kunne AI diskriminere i en skala, vi aldrig har set før af en HR-professionel."
Træningsdatasæt til AI-modeller, der bruges til ansættelse, skal afspejle mangfoldighed
Dette skyldes, at AI-modeller er afhængige af træningsdata. Hvis virksomhedens nuværende arbejdsstyrke bruges som grundlag for uddannelse, “det vil replikere status quo. Hvis det primært er ét køn eller én race, vil det replikere det,” sagde han. Omvendt kan AI hjælpe med at mindske risici for ansættelsesbias efter race, etnisk baggrund eller handicapstatus. "Jeg vil gerne se, at kunstig intelligens forbedres med hensyn til diskrimination på arbejdspladsen," sagde han.
Amazon begyndte at bygge en ansættelsesapplikation i 2014 og fandt over tid ud af, at den diskriminerede kvinder i sine anbefalinger, fordi AI-modellen blev trænet på et datasæt af virksomhedens egen ansættelsesrekord for de foregående 10 år, som primært var af mænd. Amazon-udviklere forsøgte at rette det, men i sidste ende skrottede systemet i 2017.
Facebook har for nylig accepteret at betale 14.25 millioner dollars for at afgøre civile krav fra den amerikanske regering om, at det sociale mediefirma diskriminerede amerikanske arbejdere og overtrådte føderale rekrutteringsregler, ifølge en konto fra Reuters. Sagen var centreret om Facebooks brug af det, den kaldte sit PERM-program til arbejdscertificering. Regeringen fandt, at Facebook nægtede at ansætte amerikanske arbejdere til job, der var reserveret til midlertidige visumindehavere under PERM-programmet.
"At ekskludere folk fra ansættelsespuljen er en overtrædelse," sagde Sonderling. Hvis AI-programmet "tilbageholder eksistensen af jobmuligheden til den klasse, så de ikke kan udøve deres rettigheder, eller hvis det nedgraderer en beskyttet klasse, er det inden for vores domæne," sagde han.
Beskæftigelsesvurderinger, som blev mere almindelige efter Anden Verdenskrig, har givet høj værdi til HR-ledere, og med hjælp fra AI har de potentialet til at minimere bias i ansættelser. "Samtidig er de sårbare over for påstande om diskrimination, så arbejdsgivere skal være forsigtige og kan ikke tage en håndfri tilgang," sagde Sonderling. "Upræcise data vil forstærke bias i beslutningstagning. Arbejdsgivere skal være på vagt over for diskriminerende resultater."
Han anbefalede at undersøge løsninger fra leverandører, der kontrollerer data for risici for bias på grundlag af race, køn og andre faktorer.
Et eksempel er fra HireVue i South Jordan, Utah, som har bygget en ansættelsesplatform baseret på US Equal Opportunity Commission's Uniform Guidelines, designet specifikt til at afbøde uretfærdig ansættelsespraksis, ifølge en beretning fra alt arbejde.
Et indlæg om AI-etiske principper på deres hjemmeside siger delvist, "Fordi HireVue bruger AI-teknologi i vores produkter, arbejder vi aktivt på at forhindre indførelse eller udbredelse af skævhed mod enhver gruppe eller individ. Vi vil fortsætte med omhyggeligt at gennemgå de datasæt, vi bruger i vores arbejde, og sikre, at de er så nøjagtige og forskellige som muligt. Vi fortsætter også med at fremme vores evner til at overvåge, opdage og afbøde skævhed. Vi stræber efter at opbygge teams med forskellig baggrund med forskellig viden, erfaringer og perspektiver for bedst muligt at repræsentere de mennesker, vores systemer tjener."
Også "Vores dataforskere og IO-psykologer bygger HireVue Assessment-algoritmer på en måde, der fjerner data fra algoritmens overvejelse, som bidrager til negativ indvirkning uden væsentligt at påvirke vurderingens prædiktive nøjagtighed. Resultatet er en yderst valid, forudindtaget vurdering, der hjælper med at forbedre menneskelig beslutningstagning, mens den aktivt fremmer mangfoldighed og lige muligheder uanset køn, etnicitet, alder eller handicapstatus."
Spørgsmålet om bias i datasæt, der bruges til at træne AI-modeller, er ikke begrænset til ansættelse. Dr. Ed Ikeguchi, administrerende direktør for AiCure, en AI-analysevirksomhed, der arbejder i biovidenskabsindustrien, udtalte i en nylig beretning i HealthcareITNews"AI er kun så stærk som de data, den er fodret med, og på det seneste bliver der i stigende grad sat spørgsmålstegn ved denne databackbones troværdighed. Nutidens AI-udviklere mangler adgang til store, forskellige datasæt, som de kan træne og validere nye værktøjer på."
Han tilføjede: "De har ofte brug for at udnytte open source-datasæt, men mange af disse blev trænet ved hjælp af frivillige computerprogrammører, som er en overvejende hvid befolkning. Fordi algoritmer ofte trænes på enkeltoprindelsesdataprøver med begrænset mangfoldighed, når de anvendes i scenarier i den virkelige verden til en bredere population af forskellige racer, køn, aldre og mere, kan teknologi, der forekom meget nøjagtig i forskning, vise sig at være upålidelig."
Også, "Der skal være et element af styring og peer review for alle algoritmer, da selv den mest solide og testede algoritme vil have uventede resultater. En algoritme er aldrig færdig med at lære—det skal konstant udvikles og tilføres flere data for at blive bedre.”
Og: "Som industri er vi nødt til at blive mere skeptiske over for AI's konklusioner og tilskynde til gennemsigtighed i branchen. Virksomheder bør let besvare grundlæggende spørgsmål, såsom 'Hvordan blev algoritmen trænet? På hvilket grundlag har den draget denne konklusion?"
Læs kildeartikler og information på AI verdensregering, from Reuters og fra HealthcareITNews.
- "
- 100
- 70
- adgang
- Ifølge
- Konto
- præcis
- AI
- algoritme
- algoritmer
- Alle
- Amazon
- amerikansk
- analytics
- Anvendelse
- applikationer
- tilgang
- artikler
- auto
- grundlag
- være
- BEDSTE
- bygge
- Bygning
- Direktør
- Certificering
- chatter
- fordringer
- tættere
- Fælles
- Virksomheder
- selskab
- overvejelse
- fortsæt
- kunne
- Nuværende
- data
- Beslutningstagning
- udviklet
- udviklere
- DID
- forskellige
- Mangfoldighed
- domæne
- tilskynde
- eksempel
- Dyrke motion
- Oplevelser
- faktorer
- retfærdig
- Fed
- Federal
- Fiktion
- fundet
- Køn
- godt
- regeringsførelse
- Regering
- stor
- gruppe
- retningslinjer
- hjælpe
- hjælper
- link.
- Høj
- stærkt
- leje
- Ansættelse
- holdere
- Hvordan
- hr
- HTTPS
- KIMOs Succeshistorier
- implementeret
- Forbedre
- Herunder
- individuel
- industrien
- oplysninger
- Interviews
- spørgsmål
- IT
- Job
- Karriere
- viden
- arbejdskraft
- stor
- Love
- førende
- Leverage
- Life Sciences
- Limited
- Mainstream
- Making
- Medier
- million
- model
- modeller
- mest
- national
- Muligheder
- Opportunity
- Andet
- pandemi
- Betal
- Mennesker
- Personale
- perspektiver
- perron
- Leg
- pool
- befolkning
- mulig
- Produkter
- professionel
- professionelle partnere
- Program
- spørgsmål
- Løb
- optage
- rekruttering
- religion
- forskning
- Resignation
- ansvarlige
- Resultater
- Reuters
- gennemgå
- Risiko
- regler
- Said
- Scale
- Videnskab
- VIDENSKABER
- forskere
- Køn
- Kort
- So
- Social
- sociale medier
- Løsninger
- Syd
- specifikt
- Stater
- Status
- forblive
- stærk
- systemet
- Systemer
- opgaver
- tech
- Teknologier
- midlertidig
- The Source
- tid
- værktøjer
- Kurser
- Gennemsigtighed
- Tendenser
- us
- os regering
- værdi
- leverandører
- visum
- Sårbar
- krig
- Hjemmeside
- uge
- Hvad
- hvorvidt
- WHO
- inden for
- uden
- Dame
- Arbejde
- arbejdere
- Workforce
- arbejder
- Arbejdsplads
- world
- skrivning
- år
- år