digitala innovationer och framsteg inom AI har producerat en rad nya verktyg för identifiering och bedömning av talanger. Många av dessa tekniker lovar att hjälpa organisationer att förbättra sin förmåga att hitta rätt person för rätt jobb, och sålla ut fel personer för fel jobb, snabbare och billigare än någonsin tidigare.
dessa verktyg sätter oöverträffad makt i händerna på organisationer för att driva databaserade humankapitalbeslut. De har också potential att demokratisera feedback, vilket ger miljontals jobbkandidater datadrivna insikter om deras styrkor, utvecklingsbehov och potentiell karriär och organisatorisk passform. I synnerhet har vi sett den snabba tillväxten (och motsvarande riskkapitalinvesteringar) i spelbaserade bedömningar, bots för skrapning av sociala medier, språklig analys av kandidaternas skrivprover och videobaserade intervjuer som använder algoritmer för att analysera talinnehåll, tonfall, känslomässiga tillstånd, icke-verbala beteenden och temperamentsfulla ledtrådar.
medan dessa nya verktyg stör rekryterings-och bedömningsutrymmet lämnar de många ännu obesvarade frågor om deras noggrannhet och de Etiska, juridiska och integritetsmässiga konsekvenser som de introducerar. Detta är särskilt sant jämfört med mer långvariga psykometriska bedömningar som NEO-PI-R, Wonderlic-testet, Ravens Progressive Matrices test eller Hogan Personality Inventory som har vetenskapligt härletts och noggrant validerats mot relevanta jobb, vilket identifierar tillförlitliga föreningar mellan sökandes poäng och deras efterföljande jobbprestanda (publicering av bevisen i oberoende, pålitliga, vetenskapliga tidskrifter). Nyligen har det till och med varit intresse och oro i USA. Senaten om huruvida ny teknik (specifikt ansiktsanalysteknologier) kan få negativa konsekvenser för lika möjligheter bland jobbkandidater.
i den här artikeln fokuserar vi på de potentiella följderna av ny teknik för arbetskandidaternas integritet, liksom konsekvenserna för kandidaternas skydd enligt Americans with Disabilities Act och andra federala och statliga anställningslagar. Arbetsgivare inser att de inte kan eller inte bör fråga kandidater om deras familjestatus eller politiska inriktning, eller om de är gravida, raka, homosexuella, ledsna, ensamma, deprimerade, fysiskt eller psykiskt sjuka, dricker för mycket, missbrukar droger eller sover för lite. Ny teknik kan dock redan kunna urskilja många av dessa faktorer indirekt och utan korrekt (eller till och med något) samtycke.
innan du går in i de nuvarande tvetydigheterna i den modiga nya världen av jobbkandidatbedömning och utvärdering, är det bra att ta en titt på det förflutna. Psykometriska bedömningar har använts i över 100 år och användes mer allmänt som ett resultat av USA: s militär Army Alpha, som placerade rekryter i kategorier och bestämde deras sannolikhet för att lyckas i olika roller. Traditionellt, psykometri föll i tre breda kategorier: kognitiv förmåga eller intelligens, personlighet eller temperament, och mental hälsa eller klinisk diagnos.
sedan antagandet av Americans with Disabilities Act (ADA) 1990 är arbetsgivare i allmänhet förbjudna att fråga om och/eller använda fysisk funktionshinder, mental hälsa eller klinisk diagnos som en faktor i kandidatbedömningar före anställning, och företag som har gjort det har stämts och censurerats. I huvudsak har funktionshinder-oavsett om de är fysiska eller psykiska — bestämts att vara ”privat” information som arbetsgivare inte kan fråga om vid anställningsstadiet, precis som arbetsgivare inte borde fråga sökande påträngande frågor om deras privatliv och inte kan ta hänsyn till privat demografisk information vid anställningsbeslut.
kognitiv förmåga och intelligensprovning har visat sig vara en pålitlig och giltig prediktor för jobbsucces i en mängd olika yrken. Dessa typer av bedömningar kan dock vara diskriminerande om de påverkar vissa skyddade grupper negativt, till exempel de som definieras efter kön, ras, ålder eller nationellt ursprung. Om en arbetsgivare använder en bedömning som har visat sig ha en sådan negativ inverkan, som definieras av de relativa poängen för olika skyddade grupper, måste arbetsgivaren bevisa att bedömningsmetoden är arbetsrelaterad och förutsäger framgång i de specifika jobben i fråga.
personlighetsbedömningar är mindre benägna att utsätta arbetsgivare för eventuellt ansvar för diskriminering, eftersom det finns liten eller ingen korrelation mellan personlighetsegenskaper och skyddade demografiska variabler eller funktionshinder. Det bör också noteras att förhållandet mellan personlighet och arbetsprestanda beror på sammanhanget (t.ex. typ av roll eller jobb).
tyvärr finns det mycket mindre information om den nya generationen talangverktyg som alltmer används i pre-hire-bedömning. Många av dessa verktyg har uppstått som tekniska innovationer, snarare än från vetenskapligt härledda metoder eller forskningsprogram. Som ett resultat är det inte alltid klart vad de bedömer, om deras underliggande hypoteser är giltiga eller varför de kan förväntas förutsäga arbetssökandes prestationer. Till exempel har fysiska egenskaper hos tal och den mänskliga rösten — som länge har associerats med personlighetselement — kopplats till individuella skillnader i arbetsprestanda. Om ett verktyg visar en preferens för talmönster som konsekvent vokalkadens eller tonhöjd eller en ”vänlig” tonfall som inte har någon negativ inverkan på jobbkandidater i en lagligt skyddad grupp, finns det ingen juridisk fråga; men dessa verktyg kanske inte har vetenskapligt validerats och kontrollerar därför inte för potentiell diskriminerande negativ inverkan — vilket innebär att arbetsgivaren kan ådra sig ansvar för blind tillit. Dessutom finns det ännu inga övertygande hypoteser eller försvarbara slutsatser om huruvida det skulle vara etiskt att screena ut människor baserat på deras röster, som är fysiologiskt bestämda, i stort sett oföränderliga personliga attribut.
på samma sätt har sociala medier — t.ex. Facebook — eller Twitter-användning-visat sig återspegla människors intelligens och personlighet, inklusive deras mörka sidoregenskaper. Men är det etiskt att mina dessa uppgifter för anställningsändamål när användarna i allmänhet har använt sådana appar för olika ändamål och kanske inte har gett sitt samtycke till dataanalys för att dra privata slutsatser från sina offentliga inlägg?
när den används i anställningskontexten väcker ny teknik ett antal nya etiska och juridiska frågor kring integritet, som vi tycker borde diskuteras offentligt och debatteras, nämligen:
1) vilka frestelser kommer företag att möta när det gäller kandidatsekretess avseende personliga attribut?
när tekniken går framåt kommer big data och AI att fortsätta att kunna bestämma ”proxy” – variabler för privata, personliga attribut med ökad noggrannhet. Idag kan till exempel Facebook ”likes” användas för att härleda sexuell läggning och ras med stor noggrannhet. Politisk tillhörighet och religiösa övertygelser är lika lätt identifierbara. Kan företag frestas att använda verktyg som dessa för att screena kandidater och tro att eftersom beslut inte fattas direkt baserat på skyddade egenskaper som de inte är lagligt handlingsbara? Även om en arbetsgivare inte kan bryta mot några lagar för att bara urskilja en sökandes personuppgifter kan företaget bli sårbart för laglig exponering om det fattar negativa anställningsbeslut genom att förlita sig på några skyddade kategorier som födelseort, ras eller modersmål — eller baserat på privat information som det inte har rätt att överväga, till exempel eventuell fysisk sjukdom eller psykisk sjukdom. Hur domstolarna kommer att hantera situationer där arbetsgivare har förlitat sig på verktyg som använder dessa proxyvariabler är oklart; men faktum kvarstår att det är olagligt att vidta en negativ åtgärd baserad på vissa skyddade eller privata egenskaper — oavsett hur dessa lärdes eller härleddes.
detta kan också gälla ansiktsigenkänningsprogramvara, eftersom ny forskning förutspår att ansiktsläsning AI snart kan kunna urskilja kandidaternas sexuella och politiska inriktning samt ”interna tillstånd” som humör eller känslor med hög grad av noggrannhet. Hur kan tillämpningen av Americans with Disabilities Act förändras? Dessutom, lagen om skydd av anställd Polygraph förbjuder i allmänhet arbetsgivare att använda ljussensortester som ett screeningverktyg före anställning och lagen om genetisk information förbjuder arbetsgivare att använda genetisk information i anställningsbeslut. Men vad händer om exakt samma typ av information om sanning, lögner eller genetiska attribut kan bestämmas av ovan nämnda tekniska verktyg?
2) vilka frestelser kommer företag att möta när det gäller kandidat privatliv i samband med livsstil och aktiviteter?
arbetsgivare kan nu få tillgång till information som en kandidats online ”checka in” till sin kyrka varje söndagsmorgon, en annan kandidats granskning av demensvården där han har kontrollerat sin äldre förälder och en tredje skilsmässa i civil domstol. Alla dessa saker, och många fler, är lätt att upptäcka i den digitala eran. Big data följer oss överallt vi går online och samlar in och monterar information som kan skivas och tärnas av verktyg som vi inte ens kan föreställa oss ännu — verktyg som eventuellt kan informera framtida arbetsgivare om vår kondition (eller brist på det) för vissa roller. Och big data kommer bara att bli större; enligt experter genererades 90% av uppgifterna i världen bara under de senaste två åren. Med utbyggnaden av data kommer den potentiella expansionen för missbruk och resulterande diskriminering — antingen avsiktlig eller oavsiktlig.
till skillnad från EU, som har harmoniserat sin inställning till integritet enligt General Data Protection Regulation (GDPR), förlitar sig USA på ett lapptäcke-tillvägagångssätt för integritet som till stor del drivs av statlig lag. När det gäller sociala medier började staterna införa lagstiftning redan 2012 för att förhindra arbetsgivare från att begära lösenord till personliga internetkonton som ett anställningsvillkor. Mer än tjugo stater har antagit dessa typer av lagar som gäller för arbetsgivare. Men när det gäller allmän integritet vid användning av ny teknik på arbetsplatsen har det funnits mindre specifik vägledning eller åtgärder. I synnerhet har lagstiftning gått i Kalifornien som potentiellt kommer att begränsa arbetsgivarnas användning av kandidat-eller anställddata. I allmänhet har statliga och federala domstolar ännu inte antagit en enhetlig ram för att analysera anställdas integritet i samband med ny teknik. Takeaway är att åtminstone för tillfället förblir anställdas integritet i big data-åldern orolig. Detta sätter arbetsgivare i en konfliktsituation som kräver försiktighet: Avancerad teknik finns tillgänglig som kan vara extremt användbar. Men det ger dig information som tidigare har ansetts vara privat. Är det lagligt att använda i ett anställningskontext? Och är det etiskt att överväga om kandidaten inte samtyckte?
3) vilka frestelser kommer företag att möta när det gäller kandidatens integritet när det gäller funktionshinder?
Americans with Disabilities Act sätter psykiska funktionshinder i sin räckvidd, tillsammans med fysiska funktionshinder, och definierar en individ som funktionshindrad om nedskrivningen väsentligt begränsar en stor livsaktivitet, om personen har en rekord av en sådan nedskrivning eller om personen uppfattas ha en sådan nedskrivning. För ungefär ett decennium sedan, USA. Equal Employment Opportunity Commission (EEOC) utfärdade vägledning för att säga att den expanderande listan över personlighetsstörningar som beskrivs i den psykiatriska litteraturen kan kvalificera sig som psykiska funktionsnedsättningar, och Ada-ändringslagen gjorde det lättare för en individ att fastställa att han eller hon har ett funktionshinder i den mening som avses i ADA. Som ett resultat kan kategorin personer som skyddas under ADA nu omfatta personer som har betydande problem med att kommunicera i sociala situationer, personer som har problem med att koncentrera sig eller personer som har svårt att interagera med andra.
förutom att ta upp nya frågor om funktionshinder, presenterar tekniken också nya dilemman med avseende på skillnader, oavsett om de är demografiska eller på annat sätt. Det har redan varit högprofilerade verkliga situationer där dessa system har avslöjat lärda fördomar, särskilt relaterade till ras och kön. Amazon utvecklade till exempel ett automatiserat talent search — program för att granska CV-som övergavs när företaget insåg att programmet inte betygsatte kandidater på ett könsneutralt sätt. För att minska sådana fördomar balanserar Utvecklare de data som används för att träna AI-modeller för att på lämpligt sätt representera alla grupper. Ju mer information som tekniken har och kan redogöra för/lära av, desto bättre kan den kontrollera för potentiell bias.
Sammanfattningsvis kan ny teknik redan korsa gränserna mellan offentliga och privata attribut, ”egenskaper” och ”stater” på nya sätt, och det finns all anledning att tro att de i framtiden kommer att kunna göra det alltmer. Med hjälp av AI, big data, sociala medier och maskininlärning kommer arbetsgivare att ha allt större tillgång till kandidaternas privatliv, privata attribut och privata utmaningar och sinnestillstånd. Det finns inga enkla svar på många av de nya frågorna om integritet Vi har tagit upp här, men vi tror att de alla är värda offentlig diskussion och debatt.