Digitale innovasjoner og fremskritt INNEN AI har produsert en rekke nye talentidentifikasjons-og vurderingsverktøy. Mange av disse teknologiene lover å hjelpe organisasjoner med å forbedre sin evne til å finne den rette personen til riktig jobb, og sile ut feil folk for feil jobb, raskere og billigere enn noen gang før.
disse verktøyene legger enestående makt i hendene på organisasjoner for å forfølge databaserte beslutninger om menneskelig kapital. De har også potensial til å demokratisere tilbakemeldinger, og gir millioner av jobbkandidater data-drevet innsikt om deres styrker, utviklingsbehov og potensielle karriere og organisatoriske passform. Spesielt har vi sett den raske veksten (og tilsvarende venturekapitalinvestering) i spillbaserte vurderinger, bots for skraping sosiale medier innlegg, språklig analyse av kandidatens skriveprøver og videobaserte intervjuer som bruker algoritmer for å analysere taleinnhold, tone i stemmen, følelsesmessige tilstander, ikke-verbal atferd og temperamentelle ledetråder.
selv om disse nye verktøyene forstyrrer rekrutterings-og vurderingsområdet, forlater de mange ubesvarte spørsmål om deres nøyaktighet og de etiske, juridiske og personvernmessige implikasjonene de introduserer. Dette gjelder spesielt sammenlignet med mer langvarige psykometriske vurderinger som NEO-PI-R, Wonderlic-Testen, Ravens Progressive Matriser-testen eller Hogan Personality Inventory som er vitenskapelig avledet og nøye validert mot relevante jobber, og identifiserer pålitelige foreninger mellom søkernes score og deres etterfølgende jobbprestasjon (publisering av bevisene i uavhengige, troverdige, vitenskapelige tidsskrifter). Nylig har det også vært interesse og bekymring i USA. Senatet om hvorvidt ny teknologi (spesielt ansiktsanalyseteknologi) kan ha negative implikasjoner for like muligheter blant jobbkandidater.
i denne artikkelen fokuserer vi på de potensielle konsekvensene av ny teknologi på personvernet til jobbkandidater, samt implikasjonene for kandidaters beskyttelse under Americans with Disabilities Act og andre føderale og statlige arbeidslover. Arbeidsgivere erkjenner at de ikke kan eller bør ikke spørre kandidater om deres familiestatus eller politisk orientering, eller om de er gravide, rett, homofil, trist, ensom, deprimert, fysisk eller psykisk syk, drikker for mye, misbruker narkotika eller sover for lite. Imidlertid kan ny teknologi allerede være i stand til å skille mange av disse faktorene indirekte og uten riktig (eller til og med noe) samtykke.
Før du drar inn i dagens tvetydigheter i den brave new world of job candidate assessment and evaluation, er det nyttig å ta en titt på fortiden. Psykometriske vurderinger har vært i bruk i godt over 100 år, og ble mer utbredt som følge Av United States Military ‘ S Army Alpha, som plasserte rekrutter i kategorier og bestemte sannsynligheten for å lykkes i ulike roller. Tradisjonelt falt psykometri inn i tre brede kategorier: kognitiv evne eller intelligens, personlighet eller temperament, og mental helse eller klinisk diagnose.
siden vedtakelsen Av Americans with Disabilities Act (ADA) I 1990, er arbeidsgivere generelt forbudt å spørre om og / eller bruke fysisk funksjonshemming, psykisk helse eller klinisk diagnose som en faktor i kandidatvurderinger før ansettelse, og selskaper som har gjort det, har blitt saksøkt og censurert. I hovedsak har funksjonshemminger-enten fysiske eller mentale-blitt fast bestemt på å være «privat» informasjon som arbeidsgivere ikke kan spørre om på før sysselsetting, akkurat som arbeidsgivere ikke bør spørre søkere påtrengende spørsmål om deres privatliv, og kan ikke ta hensyn til privat demografisk informasjon i ansettelsesbeslutninger.
Kognitiv evne og intelligens testing har vist seg å være en pålitelig og gyldig prediktor for jobb suksess i en rekke yrker. Slike vurderinger kan imidlertid være diskriminerende hvis de påvirker visse beskyttede grupper negativt, for eksempel de som er definert av kjønn, rase, alder eller nasjonal opprinnelse. Hvis en arbeidsgiver benytter en vurdering som har vist seg å ha en slik negativ innvirkning, som er definert av de relative score av ulike beskyttede grupper, arbeidsgiver må bevise at vurderingsmetoden er jobbrelatert og prediktiv for suksess i de aktuelle jobbene.
Personlighetsvurderinger er mindre sannsynlig å utsette arbeidsgivere for mulig ansvar for diskriminering, siden det er liten eller ingen sammenheng mellom personlighetskarakteristikker og beskyttede demografiske variabler eller funksjonshemninger. Det skal også bemerkes at forholdet mellom personlighet og jobbprestasjon avhenger av konteksten(f. eks. type rolle eller jobb).
Dessverre er det langt mindre informasjon om den nye generasjonen av talentverktøy som i økende grad brukes i pre-hire vurdering. Mange av disse verktøyene har dukket opp som teknologiske innovasjoner, snarere enn fra vitenskapelig avledede metoder eller forskningsprogrammer. Som et resultat er det ikke alltid klart hva de vurderer, om deres underliggende hypoteser er gyldige, eller hvorfor de kan forventes å forutsi jobbkandidaters ytelse. For eksempel har fysiske egenskaper av tale og menneskelig stemme-som lenge har vært forbundet med elementer av personlighet — vært knyttet til individuelle forskjeller i jobbprestasjon. Hvis et verktøy viser en preferanse for talemønstre som konsekvent vokal kadens eller tonehøyde eller en «vennlig» tone i stemmen som ikke har en negativ innvirkning på jobbkandidater i en juridisk beskyttet gruppe, er det ikke noe juridisk problem; men disse verktøyene har kanskje ikke blitt vitenskapelig validert og kontrollerer derfor ikke for potensiell diskriminerende negativ innvirkning — noe som betyr at arbeidsgiveren kan pådra seg ansvar for blind avhengighet. I tillegg er det ennå ingen overbevisende hypoteser eller forsvarlige konklusjoner om hvorvidt det ville være etisk å sile ut folk basert på deres stemmer, som er fysiologisk bestemt, i stor grad uforanderlige personlige egenskaper.
på samme måte har sosiale medier aktivitet — For Eksempel Facebook eller Twitter bruk — blitt funnet å reflektere folks intelligens og personlighet, inkludert deres mørke side egenskaper. Men er det etisk å utvinne disse dataene for ansettelsesformål når brukere generelt har brukt slike apper til forskjellige formål og kanskje ikke har gitt sitt samtykke til dataanalyse for å trekke private konklusjoner fra deres offentlige innlegg?
når de brukes i ansettelsessammenheng, reiser nye teknologier en rekke nye etiske og juridiske spørsmål rundt personvern, som vi mener bør diskuteres og debatteres offentlig, nemlig:
1) Hvilke fristelser vil selskapene møte når det gjelder kandidatpersonvern knyttet til personlige egenskaper?
etter hvert som teknologien utvikler seg, vil big data og AI fortsette å kunne bestemme» proxy » – variabler for private, personlige attributter med økt nøyaktighet. I Dag, For Eksempel, Facebook «liker» kan brukes til å antyde seksuell orientering og rase med betydelig nøyaktighet. Politisk tilhørighet og religiøs tro er like lett identifiserbare. Kan selskaper bli fristet til å bruke verktøy som disse for å skjerme kandidater, og tro at fordi beslutninger ikke gjøres direkte basert på beskyttede egenskaper, er de ikke lovlig handlingsbare? Mens en arbeidsgiver ikke kan bryte noen lover i bare kresne en søkers personlige opplysninger, kan selskapet bli utsatt for juridisk eksponering hvis det gjør ugunstige ansettelsesbeslutninger ved å stole på beskyttede kategorier som ens fødested, rase eller morsmål — eller basert på privat informasjon som den ikke har rett til å vurdere, for eksempel mulig fysisk sykdom eller psykisk lidelse. Hvordan domstolene vil håndtere situasjoner der arbeidsgivere har stolt på verktøy som bruker disse proxy variabler er uklart; men faktum er at det er ulovlig å ta en negativ handling basert på visse beskyttede eller private egenskaper-uansett hvordan disse ble lært eller utledet.
dette kan også gjelde for ansiktsgjenkjenning programvare, som nyere forskning spår at ansikt-lesing AI kan snart være i stand til å skjelne kandidatenes seksuelle og politiske orientering samt «interne tilstander» som humør eller følelser med en høy grad av nøyaktighet. Hvordan kan Anvendelsen av Americans with Disabilities Act endre seg? I tillegg Forbyr Employee Polygraph Protection Act generelt arbeidsgivere å bruke løgndetektortester som et screeningsverktøy for før ansettelse, og Genetic Information Nondiscrimination Act forbyr arbeidsgivere å bruke genetisk informasjon i ansettelsesbeslutninger. Men hva om nøyaktig samme type informasjon om sannhet, løgn eller genetiske egenskaper kan bestemmes av de ovennevnte teknologiske verktøyene?
2) Hvilke fristelser vil bedrifter møte når det gjelder kandidatpersonvern knyttet til livsstil og aktiviteter?
Arbeidsgivere kan nå få tilgang til informasjon som en kandidats online «innsjekking» til sin kirke hver søndag morgen, en annen kandidats gjennomgang av demensomsorgsfasiliteten der han har sjekket sin eldre forelder, og en tredje skilsmisse innlevering i sivilrett. Alle disse tingene, og mange flere, er lett å oppdage i den digitale tidsalderen. Store data følger oss overalt hvor vi går online og samler inn og samler informasjon som kan skives og terninger av verktøy vi ikke engang kan forestille oss ennå — verktøy som muligens kan informere fremtidige arbeidsgivere om vår kondisjon (eller mangel på det) for bestemte roller. Og store data kommer bare til å bli større; ifølge eksperter ble 90% av dataene i verden generert bare de siste to årene alene. Med utvidelsen av data kommer den potensielle utvidelsen for misbruk og resulterende diskriminering-enten bevisst eller utilsiktet.
I Motsetning TIL EU, som har harmonisert sin tilnærming til personvern under General Data Protection Regulation (GDPR), er USA avhengig av en lappeteppe tilnærming til personvern drevet i stor grad av statlig lov. Med hensyn til sosiale medier, spesielt, stater begynte å innføre lovgivning tilbake i 2012 for å hindre arbeidsgivere fra å be om passord til personlige internett-kontoer som en betingelse for sysselsetting. Mer enn tjue stater har vedtatt disse typer lover som gjelder for arbeidsgivere. Men når det gjelder generell personvern i bruk av ny teknologi på arbeidsplassen, har det vært mindre spesifikk veiledning eller handling. Spesielt har lovgivningen gått i California som potensielt vil begrense arbeidsgivernes bruk av kandidat-eller ansattdata. Generelt har statlige og føderale domstoler ennå ikke vedtatt et enhetlig rammeverk for å analysere ansattes personvern som relatert til ny teknologi. Takeaway er at i hvert fall for nå forblir ansattes personvern i en alder av store data uoppgjort. Dette setter arbeidsgivere i en konfliktstilling som krever forsiktighet: Cutting-edge teknologi er tilgjengelig som kan være svært nyttig. Men det gir deg informasjon som tidligere har blitt ansett som privat. Er det lovlig å bruke i en ansettelseskontekst? Og er det etisk å vurdere om kandidaten ikke samtykket?
3) Hvilke fristelser vil bedrifter møte når det gjelder kandidatpersonvern knyttet til funksjonshemninger?
Americans with Disabilities Act setter psykiske funksjonshemninger rett og slett i sitt ansvarsområde, sammen med fysiske funksjonshemninger, og definerer en person som funksjonshemmet hvis verdifall vesentlig begrenser en stor livsaktivitet, hvis personen har en oversikt over en slik svekkelse, eller hvis personen oppfattes å ha en slik svekkelse. For ti år siden, USA. Equal Employment Opportunity Commission (EEOC) utstedte veiledning for å si at den utvidende listen over personlighetsforstyrrelser beskrevet i den psykiatriske litteraturen kunne kvalifisere som psykiske funksjonsnedsettelser, og Ada-Endringsloven gjorde Det lettere for en person å fastslå at han eller hun har en funksjonshemming i HENHOLD TIL ADA. Som et resultat kan kategorien mennesker beskyttet under ADA nå inkludere personer som har betydelige problemer med å kommunisere i sosiale situasjoner, personer som har problemer med å konsentrere seg, eller personer som har problemer med å samhandle med andre.
i tillegg til å stille nye spørsmål om funksjonshemminger, presenterer teknologi også nye dilemmaer med hensyn til forskjeller, enten demografiske eller andre. Det har allerede vært høyprofilerte virkelige situasjoner der disse systemene har avdekket lært skjevheter, spesielt knyttet til rase og kjønn. Amazon, for eksempel, utviklet et automatisert talentsøkeprogram for å gjennomgå cv — som ble forlatt da selskapet innså at programmet ikke vurderte kandidater på en kjønnsnøytral måte. For å redusere slike skjevheter balanserer utviklere dataene som brukes til Å trene AI-modeller, for å representere alle grupper på riktig måte. Jo mer informasjon som teknologien har og kan regne med/lære av, desto bedre kan den kontrollere for potensiell bias.
til slutt kan ny teknologi allerede krysse linjene mellom offentlige og private attributter, «egenskaper» og «stater» på nye måter, og det er all grunn til å tro at de i fremtiden vil bli i økende grad i stand til å gjøre det. Ved HJELP AV AI, big data, sosiale medier og maskinlæring vil arbeidsgivere få stadig større tilgang til kandidatenes private liv, private attributter og private utfordringer og sinnstilstander. Det er ingen enkle svar på mange av de nye spørsmålene om personvern vi har reist her, men vi tror at de alle er verdige til offentlig diskusjon og debatt.