De juridische en ethische implicaties van het gebruik van AI in het inhuren

digitale innovaties en ontwikkelingen op het gebied van AI hebben geleid tot een reeks nieuwe instrumenten voor de identificatie en beoordeling van talent. Veel van deze technologieën beloven organisaties te helpen hun vermogen om de juiste persoon te vinden voor de juiste baan te verbeteren, en het screenen van de verkeerde mensen voor de verkeerde baan, sneller en goedkoper dan ooit tevoren.

deze instrumenten geven organisaties een ongekende macht om op gegevens gebaseerde beslissingen over menselijk kapitaal te nemen. Ze hebben ook het potentieel om feedback te democratiseren, waardoor miljoenen kandidaten data-gedreven inzichten krijgen over hun sterke punten, ontwikkelingsbehoeften en potentiële carrià re en organisatorische fit. In het bijzonder hebben we de snelle groei (en de bijbehorende investeringen in risicokapitaal) gezien in game-based assessments, bots voor het schrapen van social media postings, taalkundige analyse van kandidaten’ schrijven samples, en video-gebaseerde interviews die algoritmen gebruiken om spraakinhoud, toon van stem, emotionele toestanden, non-verbale gedrag, en temperamentvolle aanwijzingen te analyseren.

hoewel deze nieuwe instrumenten de wervings-en beoordelingsruimte verstoren, laten ze veel nog onbeantwoorde vragen over hun nauwkeurigheid en de ethische, juridische en privacyimplicaties die ze introduceren. Dit is vooral het geval in vergelijking met meer langdurige psychometrische beoordelingen zoals de NEO-PI-R, De Wonderlic Test, de Ravens Progressive Matrices test, of de Hogan Personality Inventory die wetenschappelijk zijn afgeleid en zorgvuldig gevalideerd ten opzichte van relevante banen, het identificeren van betrouwbare associaties tussen de scores van aanvragers en hun latere functieprestaties (het publiceren van het bewijs in onafhankelijke, betrouwbare wetenschappelijke tijdschriften). Onlangs is er zelfs interesse en bezorgdheid geweest in de VS. Senaat over de vraag of nieuwe technologieën (in het bijzonder gezichtsanalysetechnologieën) negatieve gevolgen kunnen hebben voor Gelijke Kansen onder kandidaten voor een baan.

in dit artikel richten we ons op de mogelijke gevolgen van nieuwe technologieën voor de privacy van sollicitanten, evenals de implicaties voor de bescherming van sollicitanten onder de Americans with Disabilities Act en andere federale en staats arbeidswetten. Werkgevers erkennen dat ze kandidaten niet kunnen of moeten vragen naar hun familiale status of politieke oriëntatie, of dat ze zwanger, hetero, homo, verdrietig, eenzaam, depressief, fysiek of mentaal ziek, drinken te veel, misbruik maken van drugs, of slapen te weinig. Nieuwe technologieën kunnen echter al veel van deze factoren indirect en zonder de juiste (of zelfs enige) toestemming onderscheiden.Voordat we ingaan op de huidige dubbelzinnigheden van de brave new world of job candidate assessment and evaluation, is het nuttig om een blik te werpen op het verleden. Psychometrische beoordelingen zijn in gebruik voor meer dan 100 jaar, en werd meer op grote schaal gebruikt als gevolg van het leger van de Verenigde Staten Alpha, die rekruten geplaatst in categorieën en bepaald hun kans om succesvol te zijn in verschillende rollen. Traditioneel viel psychometrie in drie brede categorieën: cognitief vermogen of intelligentie, persoonlijkheid of temperament, en geestelijke gezondheid of klinische diagnose.

sinds de goedkeuring van de Americans with Disabilities Act (ADA) in 1990 is het werkgevers in het algemeen verboden om informatie te vragen over en/of gebruik te maken van lichamelijke handicaps, geestelijke gezondheid of klinische diagnose als een factor in de beoordeling van kandidaten vóór de indiensttreding, en bedrijven die dit hebben gedaan, zijn aangeklaagd en veroordeeld. In wezen zijn handicaps — of ze nu fysiek of mentaal zijn-bepaald als “privé” informatie waarover werkgevers in de fase voorafgaand aan de indienstneming niet kunnen informeren, net zoals werkgevers geen opdringerige vragen over hun privéleven moeten stellen en geen rekening kunnen houden met persoonlijke demografische informatie bij het aannemen van beslissingen.Het testen van cognitieve vaardigheden en intelligentie bleek een betrouwbare en valide voorspeller van succes op de arbeidsmarkt in een groot aantal beroepen. Dergelijke beoordelingen kunnen echter discriminerend zijn als zij een negatief effect hebben op bepaalde beschermde groepen, zoals die welke zijn gedefinieerd naar geslacht, ras, leeftijd of nationale afkomst. Als een werkgever gebruik maakt van een beoordeling waarvan is gebleken dat deze een dergelijk negatief effect heeft, die wordt bepaald door de relatieve scores van verschillende beschermde groepen, moet de werkgever aantonen dat de beoordelingsmethode werkgerelateerd is en voorspellend is voor succes in de specifieke banen in kwestie.Het is minder waarschijnlijk dat Persoonlijkheidsbeoordelingen werkgevers blootstellen aan mogelijke aansprakelijkheid voor discriminatie, aangezien er weinig tot geen correlatie bestaat tussen persoonlijkheidskenmerken en beschermde demografische variabelen of handicaps. Ook moet worden opgemerkt dat de relatie tussen persoonlijkheid en functieprestaties afhankelijk is van de context (bijvoorbeeld het type rol of functie).

helaas is er veel minder informatie over de nieuwe generatie talentinstrumenten die in toenemende mate worden gebruikt bij de beoordeling vooraf. Veel van deze instrumenten zijn naar voren gekomen als technologische innovaties, in plaats van uit wetenschappelijk afgeleide methoden of onderzoeksprogramma ‘ s. Daardoor is niet altijd duidelijk wat zij beoordelen, of hun onderliggende hypothesen geldig zijn, of waarom van hen mag worden verwacht dat zij de prestaties van kandidaten voorspellen. Zo zijn de fysische eigenschappen van spraak en menselijke stem — die al lang met persoonlijkheidselementen zijn geassocieerd — in verband gebracht met individuele verschillen in werkprestaties. Als een tool een voorkeur toont voor spraakpatronen zoals consistente stem cadans of toonhoogte of een “vriendelijke” toon van de stem die geen negatieve impact hebben op sollicitanten in een wettelijk beschermde groep, dan is er geen juridische kwestie; maar deze tools zijn mogelijk niet wetenschappelijk gevalideerd en daarom zijn ze niet controlerend voor potentiële discriminerende negatieve impact — wat betekent dat de werkgever aansprakelijk kan worden gesteld voor blind vertrouwen. Bovendien zijn er nog geen overtuigende hypothesen of verdedigbare conclusies over de vraag of het ethisch zou zijn om mensen te screenen op basis van hun stemmen, die fysiologisch bepaald zijn, grotendeels onveranderlijke persoonlijke attributen.

ook is gebleken dat sociale media — activiteiten — zoals het gebruik van Facebook of Twitter-de intelligentie en persoonlijkheid van mensen weerspiegelen, met inbegrip van hun donkere kantkenmerken. Maar is het ethisch om deze gegevens te ontginnen voor wervingsdoeleinden wanneer gebruikers dergelijke apps over het algemeen voor verschillende doeleinden hebben gebruikt en hun toestemming voor gegevensanalyse niet hebben gegeven om privé-conclusies te trekken uit hun openbare berichten?

bij gebruik in de wervingscontext doen nieuwe technologieën een aantal nieuwe ethische en juridische vragen rijzen rond privacy, die naar onze mening openbaar moeten worden besproken en besproken, namelijk:

1) welke verleidingen zullen bedrijven tegenkomen in termen van privacy van kandidaten met betrekking tot persoonlijke attributen?

naarmate de technologie vordert, zullen big data en AI in staat blijven om “proxy” variabelen voor private, persoonlijke attributen met grotere nauwkeurigheid te bepalen. Tegenwoordig kan Facebook ‘likes’ bijvoorbeeld worden gebruikt om seksuele geaardheid en ras met aanzienlijke nauwkeurigheid af te leiden. Politieke gezindheid en religieuze overtuigingen zijn even gemakkelijk herkenbaar. Zouden bedrijven in de verleiding komen om tools als deze te gebruiken om kandidaten te screenen, in de overtuiging dat omdat beslissingen niet direct worden gemaakt op basis van beschermde kenmerken dat ze niet wettelijk kunnen worden vervolgd? Hoewel een werkgever geen wetten mag overtreden door alleen de persoonlijke gegevens van een sollicitant te onderscheiden, kan het bedrijf kwetsbaar worden voor wettelijke blootstelling als het negatieve werkgelegenheidsbeslissingen neemt door te vertrouwen op beschermde categorieën, zoals iemands geboorteplaats, ras of moedertaal — of op basis van privé-informatie die het niet het recht heeft om te overwegen, zoals mogelijke lichamelijke ziekte of mentale kwaal. Hoe de rechtbanken zullen omgaan met situaties waarin werkgevers hebben vertrouwd op tools met behulp van deze proxy variabelen is onduidelijk; maar het blijft een feit dat het onwettig is om een negatieve actie te ondernemen op basis van bepaalde beschermde of particuliere kenmerken — ongeacht hoe deze werden geleerd of afgeleid.Dit kan ook van toepassing zijn op gezichtsherkenningssoftware, aangezien recent onderzoek voorspelt dat AI voor gezichtsherkenning binnenkort de seksuele en politieke oriëntatie van kandidaten en “interne toestanden” zoals stemming of emotie met een hoge mate van nauwkeurigheid kan onderscheiden. Hoe kan de toepassing van de Americans with Disabilities Act veranderen? Bovendien verbiedt de Wet Bescherming polygraaf werknemers werkgevers over het algemeen om leugendetectortests te gebruiken als een pre-employment screening tool en de Genetic Information Nondiscrimination Act verbiedt werkgevers om genetische informatie te gebruiken in arbeidsbeslissingen. Maar wat als exact dezelfde soort informatie over waarheid, leugens of genetische eigenschappen kan worden bepaald door de hierboven genoemde technologische instrumenten?

2) welke verleidingen zullen bedrijven ondervinden in termen van kandidaat-privacy met betrekking tot levensstijl en activiteiten?

werkgevers hebben nu toegang tot informatie zoals het online inchecken van een kandidaat in haar kerk elke zondagochtend, het onderzoek van een andere kandidaat van de dementiezorginstelling waar hij zijn oudere ouder heeft gecontroleerd, en het indienen van een echtscheiding bij een burgerlijke rechtbank. Al deze dingen, en nog veel meer, zijn gemakkelijk te ontdekken in het digitale tijdperk. Big data volgt ons overal waar we online gaan en verzamelt en assembleert informatie die kan worden gesneden en in blokjes gesneden door tools die we ons nog niet eens kunnen voorstellen — tools die mogelijk toekomstige werkgevers kunnen informeren over onze geschiktheid (of het ontbreken daarvan) voor bepaalde rollen. Big data zal alleen maar groter worden. volgens experts is 90% van de data in de wereld alleen al in de afgelopen twee jaar gegenereerd. Met de uitbreiding van de gegevens komt de potentiële uitbreiding voor misbruik en resulterende discriminatie — opzettelijk of onbedoeld.In tegenstelling tot de EU, die haar benadering van privacy heeft geharmoniseerd in het kader van de Algemene Verordening Gegevensbescherming (GDPR), vertrouwt de VS op een lappendeken benadering van privacy die grotendeels wordt aangedreven door de wetgeving van de staat. Met betrekking tot sociale media, in het bijzonder, Staten begonnen met de invoering van wetgeving terug in 2012 om te voorkomen dat werkgevers het aanvragen van wachtwoorden voor persoonlijke internetaccounts als voorwaarde voor de werkgelegenheid. Meer dan twintig Staten hebben dit soort wetten uitgevaardigd die van toepassing zijn op werkgevers. In termen van algemene privacy bij het gebruik van nieuwe technologieën op de werkplek is er echter minder specifieke begeleiding of actie geweest. In het bijzonder is er wetgeving aangenomen in Californië die het gebruik van kandidaat-of werknemersgegevens door werkgevers mogelijk zal beperken. In het algemeen, staat en federale rechtbanken hebben nog een uniform kader voor het analyseren van de privacy van werknemers in verband met nieuwe technologie vast te stellen. De afhaalmaaltijd is dat in ieder geval voor nu, werknemer privacy in het tijdperk van big data blijft onrustig. Dit brengt werkgevers in een conflictpositie die vraagt om voorzichtigheid: Geavanceerde technologie is beschikbaar die uiterst nuttig kan zijn. Maar het geeft je informatie die eerder als privé werd beschouwd. Is het legaal om te gebruiken in een wervingscontext? En is het ethisch om te overwegen of de kandidaat niet toestemde?

3) met welke verleidingen zullen bedrijven te maken krijgen wat betreft de privacy van kandidaten met betrekking tot handicaps?

de Americans with Disabilities Act legt naast fysieke handicaps ook een geestelijke handicap in haar werkingssfeer en definieert een individu als gehandicapt als de handicap een belangrijke levensactiviteit aanzienlijk beperkt, als de persoon een strafblad heeft van een dergelijke handicap, of als de persoon wordt geacht een dergelijke handicap te hebben. Ongeveer tien jaar geleden, de VS Equal Employment Opportunity Commission (EEOC) gaf richtsnoeren om te zeggen dat de groeiende lijst van persoonlijkheidsstoornissen beschreven in de psychiatrische literatuur kon kwalificeren als geestelijke stoornissen, en de ADA Amendments Act maakte het gemakkelijker voor een individu om vast te stellen dat hij of zij een handicap heeft in de zin van de ADA. Als gevolg hiervan kan de categorie van mensen die beschermd worden onder de ADA nu mensen omvatten die aanzienlijke problemen hebben met communiceren in sociale situaties, mensen die problemen hebben met concentreren, of mensen die moeite hebben met interactie met anderen.Naast nieuwe vragen over handicaps stelt technologie ook nieuwe dilemma ‘ s met betrekking tot demografische of andere verschillen. Er zijn al opvallende real-life situaties geweest waarin deze systemen aangeleerde vooroordelen hebben blootgelegd, vooral met betrekking tot ras en geslacht. Amazon, bijvoorbeeld, ontwikkelde een geautomatiseerd talent zoekprogramma om cv ‘ s te beoordelen — die werd verlaten zodra het bedrijf besefte dat het programma was niet het beoordelen van kandidaten op een genderneutrale manier. Om dergelijke vooroordelen te verminderen, zijn ontwikkelaars het balanceren van de gegevens die worden gebruikt voor het trainen van AI-modellen, om alle groepen op de juiste manier te vertegenwoordigen. Hoe meer informatie de technologie heeft en kan verantwoorden / leren van, hoe beter het kan controleren voor potentiële bias.Concluderend kan worden gesteld dat nieuwe technologieën reeds op nieuwe manieren de grenzen tussen publieke en private attributen, “eigenschappen” en “staten” kunnen overschrijden, en er is alle reden om aan te nemen dat zij dat in de toekomst steeds meer zullen kunnen. Met behulp van AI, big data, sociale media en machine learning krijgen werkgevers steeds meer toegang tot het privéleven van kandidaten, private attributen en private uitdagingen en gemoedstoestanden. Er zijn geen gemakkelijke antwoorden op veel van de nieuwe vragen over privacy die we hier hebben gesteld, maar we vinden dat ze allemaal een publieke discussie en discussie waard zijn.

Leave a Reply

Geef een antwoord

Het e-mailadres wordt niet gepubliceerd.