De juridiske og etiske konsekvenser af at bruge AI i ansættelse

digitale innovationer og fremskridt inden for AI har produceret en række nye talentidentifikations-og vurderingsværktøjer. Mange af disse teknologier lover at hjælpe organisationer med at forbedre deres evne til at finde den rigtige person til det rigtige job og screene de forkerte mennesker for de forkerte job, hurtigere og billigere end nogensinde før.

disse værktøjer lægger hidtil uset magt i hænderne på organisationer til at forfølge databaserede beslutninger om menneskelig kapital. De har også potentialet til at demokratisere feedback, giver millioner af jobkandidater datadrevet indsigt i deres styrker, udviklingsbehov, og potentiel karriere-og organisatorisk pasform. Især har vi set den hurtige vækst (og tilsvarende venturekapitalinvesteringer) i spilbaserede vurderinger, bots til skrabning af sociale medieindlæg, sproglig analyse af kandidaternes skriveprøver og videobaserede samtaler, der bruger algoritmer til at analysere taleindhold, stemmetone, følelsesmæssige tilstande, ikke-verbal adfærd og temperamentsfulde spor.

mens disse nye værktøjer forstyrrer rekrutterings-og vurderingsrummet, efterlader de mange endnu ubesvarede spørgsmål om deres nøjagtighed og de etiske, juridiske og privatlivsmæssige konsekvenser, de introducerer. Dette gælder især sammenlignet med mere langvarige psykometriske vurderinger såsom NEO-PI-r, den vidunderlige Test, Ravens Progressive matricer test eller Hogan Personality Inventory, der er videnskabeligt afledt og omhyggeligt valideret over for relevante job, der identificerer pålidelige sammenhænge mellem ansøgernes score og deres efterfølgende jobpræstationer (offentliggørelse af beviserne i uafhængige, pålidelige, videnskabelige tidsskrifter). For nylig har der endda været interesse og bekymring i USA. Senatet om, hvorvidt nye teknologier (specifikt ansigtsanalyseteknologier) kan have negative konsekvenser for lige muligheder blandt jobkandidater.

i denne artikel fokuserer vi på de potentielle konsekvenser af nye teknologier på jobkandidaternes privatliv samt konsekvenserne for kandidaternes beskyttelse i henhold til amerikanerne med handicaploven og andre føderale og statslige beskæftigelseslove. Arbejdsgivere erkender, at de ikke kan eller ikke bør spørge kandidater om deres familiestatus eller politiske orientering, eller om de er gravide, lige, homoseksuel, trist, ensom, deprimeret, fysisk eller psykisk syg, drikker for meget, misbruger stoffer eller sover for lidt. Imidlertid kan nye teknologier allerede være i stand til at skelne mange af disse faktorer indirekte og uden ordentlig (eller endda noget) samtykke.

før du går ind i de nuværende uklarheder i den modige nye verden af jobkandidatvurdering og evaluering, er det nyttigt at se på fortiden. Psykometriske vurderinger har været i brug i godt over 100 år og blev mere udbredt som et resultat af United States Military ‘ s Army Alpha, som placerede rekrutter i kategorier og bestemte deres sandsynlighed for at få succes i forskellige roller. Traditionelt faldt psykometri i tre brede kategorier: kognitiv evne eller intelligens, personlighed eller temperament og mental sundhed eller klinisk diagnose.

siden vedtagelsen af amerikanerne med handicaploven (ADA) i 1990 er arbejdsgivere generelt forbudt at spørge om og/eller bruge fysisk handicap, mental sundhed eller klinisk diagnose som en faktor i kandidatvurderinger før ansættelse, og virksomheder, der har gjort det, er blevet sagsøgt og censureret. I det væsentlige er handicap — hvad enten det er fysisk eller mentalt — blevet bestemt til at være “privat” information, som arbejdsgivere ikke kan spørge om på præ-ansættelsesfasen, ligesom arbejdsgivere ikke bør stille ansøgere påtrængende spørgsmål om deres privatliv og ikke kan tage private demografiske oplysninger i betragtning i ansættelsesbeslutninger.

kognitiv evne og intelligens test har vist sig at være en pålidelig og gyldig forudsigelse for job succes i en lang række erhverv. Imidlertid, denne slags vurderinger kan være diskriminerende, hvis de påvirker visse beskyttede grupper negativt, såsom dem, der er defineret efter køn, race, alder, eller national oprindelse. Hvis en arbejdsgiver anvender en vurdering, der har vist sig at have en sådan negativ indvirkning, som er defineret af de relative scoringer af forskellige beskyttede grupper, skal arbejdsgiveren bevise, at vurderingsmetoden er jobrelateret og forudsigelig for succes i de pågældende specifikke job.

personlighedsvurderinger er mindre tilbøjelige til at udsætte arbejdsgivere for muligt ansvar for forskelsbehandling, da der er ringe eller ingen sammenhæng mellem personlighedskarakteristika og beskyttede demografiske variabler eller handicap. Det skal også bemærkes, at forholdet mellem personlighed og jobpræstation afhænger af konteksten (f.eks.

Desværre er der langt mindre information om den nye generation af talentværktøjer, der i stigende grad bruges til vurdering af pre-hire. Mange af disse værktøjer er opstået som teknologiske innovationer snarere end fra videnskabeligt afledte metoder eller forskningsprogrammer. Som et resultat er det ikke altid klart, hvad de vurderer, om deres underliggende hypoteser er gyldige, eller hvorfor de kan forventes at forudsige jobkandidaternes præstationer. For eksempel har fysiske egenskaber ved tale og den menneskelige stemme — som længe har været forbundet med elementer af personlighed — været knyttet til individuelle forskelle i jobpræstation. Hvis et værktøj viser en præference for talemønstre såsom konsekvent stemmekadens eller tonehøjde eller en “venlig” stemmetone, der ikke har en negativ indvirkning på jobkandidater i en juridisk beskyttet gruppe, er der intet juridisk problem; men disse værktøjer er muligvis ikke videnskabeligt valideret og kontrollerer derfor ikke for potentiel diskriminerende negativ indvirkning — hvilket betyder, at arbejdsgiveren kan pådrage sig ansvar for enhver blind afhængighed. Derudover er der endnu ingen overbevisende hypoteser eller forsvarlige konklusioner om, hvorvidt det ville være etisk at screene folk ud fra deres stemmer, som er fysiologisk bestemte, stort set uforanderlige personlige egenskaber.

ligeledes har sociale medieaktiviteter — f.eks. brug af Facebook eller Kvidre — vist sig at afspejle folks intelligens og personlighed, herunder deres mørke sideegenskaber. Men er det etisk at udvinde disse data til ansættelsesformål, når brugerne generelt har brugt sådanne apps til forskellige formål og muligvis ikke har givet deres samtykke til dataanalyse for at drage private konklusioner fra deres offentlige opslag?

når de anvendes i ansættelsessammenhæng, rejser nye teknologier en række nye etiske og juridiske spørgsmål omkring privatlivets fred, som vi mener burde diskuteres og debatteres offentligt, nemlig:

1) Hvilke fristelser vil virksomheder stå over for med hensyn til kandidat privatliv i forbindelse med personlige egenskaber?

efterhånden som teknologien skrider frem, vil big data og AI fortsat være i stand til at bestemme “fuldmagt” – variabler for private, personlige attributter med øget nøjagtighed. I dag kan for eksempel Facebook “likes” bruges til at udlede seksuel orientering og race med betydelig nøjagtighed. Politisk tilhørsforhold og religiøs overbevisning er lige så let identificerbare. Kan virksomheder blive fristet til at bruge værktøjer som disse til at screene kandidater, idet de tror, at fordi beslutninger ikke træffes direkte baseret på beskyttede egenskaber, at de ikke er juridisk handlingsmæssige? Selvom en arbejdsgiver muligvis ikke overtræder nogen lovgivning ved blot at skelne en ansøgers personlige oplysninger, virksomheden kan blive sårbar over for juridisk eksponering, hvis den træffer ugunstige ansættelsesbeslutninger ved at stole på beskyttede kategorier såsom ens fødested, race, eller modersmål — eller baseret på private oplysninger, som den ikke har ret til at overveje, såsom mulig fysisk sygdom eller psykisk lidelse. Hvordan domstolene vil håndtere situationer, hvor arbejdsgivere har påberåbt sig værktøjer, der bruger disse fuldmagtsvariabler, er uklart; men faktum er, at det er ulovligt at tage en negativ handling baseret på visse beskyttede eller private egenskaber — uanset hvordan disse blev lært eller udledt.

dette kan også gælde for ansigtsgenkendelsesprogrammer, da nyere forskning forudsiger, at ansigtslæsning AI snart kan være i stand til at skelne kandidaternes seksuelle og politiske orientering såvel som “interne tilstande” som humør eller følelser med en høj grad af nøjagtighed. Hvordan kan anvendelsen af amerikanerne med handicaploven ændre sig? Derudover, loven om Medarbejderpolygraph Protection forbyder generelt arbejdsgivere at bruge løgnedetektortest som et screeningsværktøj før ansættelse, og loven om ikke-forskelsbehandling af genetisk Information forbyder arbejdsgivere at bruge genetisk information i ansættelsesbeslutninger. Men hvad nu hvis den nøjagtige samme slags information om sandhed, løgne eller genetiske egenskaber kan bestemmes af de ovennævnte teknologiske værktøjer?

2) Hvilke fristelser vil virksomheder stå over for med hensyn til kandidat privatliv i forbindelse med livsstil og aktiviteter?

arbejdsgivere kan nu få adgang til oplysninger såsom en kandidats online “check in” til hendes kirke hver søndag formiddag, en anden kandidats gennemgang af demensplejefaciliteten, hvor han har kontrolleret sin ældre forælder, og en tredjes skilsmisse arkivering i civil domstol. Alle disse ting, og mange flere, kan let opdages i den digitale æra. Big data følger os overalt, hvor vi går online, og indsamler og samler information, der kan skives og terninger af værktøjer, vi ikke engang kan forestille os endnu — værktøjer, der muligvis kan informere fremtidige arbejdsgivere om vores egnethed (eller mangel på samme) til bestemte roller. Og big data bliver kun større; ifølge eksperter blev 90% af dataene i verden genereret bare i de sidste to år alene. Med udvidelsen af data kommer den potentielle udvidelse for misbrug og deraf følgende diskrimination — enten bevidst eller utilsigtet.

i modsætning til EU, der har harmoniseret sin tilgang til privatlivets fred i henhold til den generelle databeskyttelsesforordning (GDPR), er USA afhængig af en lappeteppe-tilgang til privatlivets fred, der i vid udstrækning er drevet af statslovgivning. Med hensyn til sociale medier begyndte stater specifikt at indføre lovgivning tilbage i 2012 for at forhindre arbejdsgivere i at anmode om adgangskoder til personlige internetkonti som en betingelse for ansættelse. Mere end tyve stater har vedtaget disse typer love, der gælder for arbejdsgivere. Med hensyn til generel privatliv i brugen af nye teknologier på arbejdspladsen har der imidlertid været mindre specifik vejledning eller handling. I særdeleshed, lovgivning er vedtaget i Californien, der potentielt vil begrænse arbejdsgivernes brug af kandidat-eller medarbejderdata. Generelt har statslige og føderale domstole endnu ikke vedtaget en samlet ramme til analyse af medarbejdernes privatliv som relateret til ny teknologi. Afhentningen er, at i det mindste for nu, medarbejdernes privatliv i big data-alderen forbliver urolig. Dette sætter arbejdsgivere i en konflikt, der opfordrer til forsigtighed: Avanceret teknologi er tilgængelig, der kan være yderst nyttig. Men det giver dig oplysninger, der tidligere er blevet betragtet som private. Er det lovligt at bruge i en ansættelsessammenhæng? Og er det etisk at overveje, om kandidaten ikke gav sit samtykke?

3) Hvilke fristelser vil virksomheder stå over for med hensyn til kandidat privatliv i forbindelse med handicap?

amerikanerne med handicaploven sætter psykiske handicap helt i sit område sammen med fysiske handicap og definerer en person som handicappet, hvis svækkelsen væsentligt begrænser en større livsaktivitet, hvis personen har en registrering af en sådan svækkelse, eller hvis personen opfattes at have en sådan svækkelse. For et årti siden, USA. Lige Beskæftigelsesmulighedskommission (EEOC) udsendte vejledning for at sige, at den ekspanderende liste over personlighedsforstyrrelser beskrevet i den psykiatriske litteratur kunne kvalificere sig som psykiske svækkelser, og ADA-ændringsloven gjorde det lettere for en person at fastslå, at han eller hun har et handicap i henhold til ADA. Som resultat, den kategori af mennesker, der er beskyttet under ADA, kan nu omfatte mennesker, der har betydelige problemer med at kommunikere i sociale situationer, mennesker, der har problemer med at koncentrere sig, eller mennesker, der har svært ved at interagere med andre.

ud over at rejse nye spørgsmål om handicap præsenterer teknologien også nye dilemmaer med hensyn til forskelle, hvad enten de er demografiske eller på anden måde. Der har allerede været højt profilerede virkelige situationer, hvor disse systemer har afsløret lærte forstyrrelser, især relateret til race og køn. Et automatiseret talentsøgningsprogram til gennemgang af CV ‘ er — som blev opgivet, når virksomheden indså, at programmet ikke vurderede kandidater på en kønsneutral måde. For at reducere sådanne forstyrrelser afbalancerer udviklere de data, der bruges til træning af AI-modeller, for passende at repræsentere alle grupper. Jo flere oplysninger, som teknologien har og kan redegøre for/Lære af, jo bedre kan den kontrollere for potentiel bias.

afslutningsvis kan nye teknologier allerede krydse linjerne mellem offentlige og private attributter, “træk” og “stater” på nye måder, og der er al mulig grund til at tro, at de i fremtiden i stigende grad vil være i stand til at gøre det. Ved hjælp af AI, big data, sociale medier og maskinindlæring vil arbejdsgivere have stadig større adgang til kandidaternes privatliv, private attributter og private udfordringer og sindstilstande. Der er ingen nemme svar på mange af de nye spørgsmål om privatlivets fred, vi har rejst her, men vi mener, at de alle er værdige til offentlig diskussion og debat.

Leave a Reply

Skriv et svar

Din e-mailadresse vil ikke blive publiceret.