Le implicazioni legali ed etiche dell’utilizzo dell’IA nelle assunzioni

Le innovazioni digitali e i progressi nell’IA hanno prodotto una serie di nuovi strumenti di identificazione e valutazione dei talenti. Molte di queste tecnologie promettono di aiutare le organizzazioni a migliorare la loro capacità di trovare la persona giusta per il lavoro giusto, e schermare le persone sbagliate per i lavori sbagliati, più veloce e più economico che mai.

Questi strumenti mettono un potere senza precedenti nelle mani delle organizzazioni per perseguire decisioni di capitale umano basate sui dati. Essi hanno anche il potenziale per democratizzare il feedback, dando milioni di candidati di lavoro intuizioni data-driven sui loro punti di forza, esigenze di sviluppo, e potenziale carriera e forma organizzativa. In particolare, abbiamo visto la rapida crescita (e il corrispondente investimento di capitale di rischio) nelle valutazioni basate sul gioco, i bot per raschiare i post sui social media, l’analisi linguistica dei campioni di scrittura dei candidati e le interviste basate su video che utilizzano algoritmi per analizzare il contenuto del discorso, il tono della voce, gli stati emotivi, i comportamenti non verbali

Mentre questi nuovi strumenti stanno interrompendo lo spazio di reclutamento e valutazione, lasciano molte domande ancora senza risposta sulla loro accuratezza e sulle implicazioni etiche, legali e sulla privacy che introducono. Ciò è particolarmente vero se confrontato con valutazioni psicometriche di lunga data come il NEO-PI-R, il Test Wonderlic, il test delle matrici progressive Ravens o l’Inventario della personalità di Hogan che sono stati scientificamente derivati e accuratamente convalidati nei confronti dei lavori pertinenti, identificando associazioni affidabili tra i punteggi dei candidati e le loro successive prestazioni lavorative (pubblicando le prove in riviste Recentemente, negli Stati Uniti c’è stato anche interesse e preoccupazione. Senato sul fatto che le nuove tecnologie (in particolare, le tecnologie di analisi facciale) potrebbero avere implicazioni negative per le pari opportunità tra i candidati al lavoro.

In questo articolo, ci concentriamo sulle potenziali ripercussioni delle nuove tecnologie sulla privacy dei candidati al lavoro, nonché sulle implicazioni per le protezioni dei candidati ai sensi dell’Americans with Disabilities Act e di altre leggi federali e statali sull’occupazione. I datori di lavoro riconoscono che non possono o non devono chiedere ai candidati il loro stato di famiglia o l’orientamento politico, o se sono incinte, etero, gay, tristi, soli, depressi, fisicamente o mentalmente malati, bevendo troppo, abusando di droghe o dormendo troppo poco. Tuttavia, le nuove tecnologie potrebbero già essere in grado di discernere molti di questi fattori indirettamente e senza un adeguato (o addirittura qualsiasi) consenso.

Prima di approfondire le attuali ambiguità del nuovo mondo della valutazione e della valutazione dei candidati al lavoro, è utile dare un’occhiata al passato. Le valutazioni psicometriche sono state in uso per oltre 100 anni e sono diventate più ampiamente utilizzate come risultato dell’esercito Alpha dell’esercito degli Stati Uniti, che ha inserito le reclute in categorie e determinato la loro probabilità di avere successo in vari ruoli. Tradizionalmente, la psicometria si divideva in tre grandi categorie: capacità cognitiva o intelligenza, personalità o temperamento e salute mentale o diagnosi clinica.

Dall’adozione dell’Americans with Disabilities Act (ADA) in 1990, ai datori di lavoro è generalmente vietato indagare e/o utilizzare disabilità fisica, salute mentale o diagnosi clinica come fattore nelle valutazioni dei candidati pre-impiego e le aziende che lo hanno fatto sono state citate in giudizio e censurate. In sostanza, le disabilità-fisiche o mentali — sono state determinate per essere informazioni “private” che i datori di lavoro non possono informarsi nella fase di pre-occupazione, proprio come i datori di lavoro non dovrebbero porre ai candidati domande intrusive sulla loro vita privata e non possono prendere in considerazione le informazioni demografiche private nelle decisioni di assunzione.

Le capacità cognitive e i test di intelligenza sono risultati essere un predittore affidabile e valido del successo lavorativo in un’ampia varietà di occupazioni. Tuttavia, questi tipi di valutazioni possono essere discriminatorie se hanno un impatto negativo su determinati gruppi protetti, come quelli definiti per sesso, razza, età o origine nazionale. Se un datore di lavoro utilizza una valutazione che è stata trovata per avere un tale impatto negativo, che è definito dai punteggi relativi di diversi gruppi protetti, il datore di lavoro deve dimostrare che la metodologia di valutazione è correlata al lavoro e predittiva del successo nei lavori specifici in questione.

Le valutazioni della personalità hanno meno probabilità di esporre i datori di lavoro a possibili responsabilità per discriminazione, poiché c’è poca o nessuna correlazione tra le caratteristiche della personalità e le variabili demografiche protette o le disabilità. Va anche notato che la relazione tra personalità e prestazioni lavorative dipende dal contesto (ad esempio, tipo di ruolo o lavoro).

Sfortunatamente, ci sono molte meno informazioni sulla nuova generazione di strumenti di talento che vengono sempre più utilizzati nella valutazione pre-noleggio. Molti di questi strumenti sono emersi come innovazioni tecnologiche, piuttosto che da metodi o programmi di ricerca scientificamente derivati. Di conseguenza, non è sempre chiaro cosa valutano, se le loro ipotesi sottostanti sono valide o perché ci si può aspettare che prevedano le prestazioni dei candidati al lavoro. Ad esempio, le proprietà fisiche della parola e della voce umana — che sono state a lungo associate a elementi della personalità — sono state collegate alle differenze individuali nelle prestazioni lavorative. Se uno strumento mostra una preferenza per i modelli di discorso come coerente cadenza vocale o passo o un “amichevole” con un tono di voce che non hanno un impatto negativo sui candidati di lavoro legalmente protetta di gruppo, quindi non c’è nessun problema legale, ma questi strumenti non sono stati scientificamente validati e quindi non sono di controllo per il potenziale discriminatorio effetti negativi — significa che il datore di lavoro può incorrere in responsabilità per eventuali cieco affidamento. Inoltre, non ci sono ancora ipotesi convincenti o conclusioni difendibili sul fatto che sarebbe etico escludere le persone in base alle loro voci, che sono attributi personali fisiologicamente determinati, in gran parte immutabili.

Allo stesso modo, l’attività dei social media — ad esempio l’utilizzo di Facebook o Twitter — è stata trovata per riflettere l’intelligenza e la personalità delle persone, compresi i loro tratti del lato oscuro. Ma è etico estrarre questi dati per scopi di assunzione quando gli utenti avranno generalmente utilizzato tali app per scopi diversi e potrebbero non aver fornito il loro consenso all’analisi dei dati per trarre conclusioni private dai loro messaggi pubblici?

Quando vengono utilizzate nel contesto delle assunzioni, le nuove tecnologie sollevano una serie di nuove questioni etiche e legali sulla privacy, che riteniamo debbano essere discusse e discusse pubblicamente, vale a dire:

1) Quali tentazioni dovranno affrontare le aziende in termini di privacy dei candidati in relazione agli attributi personali?

Con l’avanzare della tecnologia, i big data e l’IA continueranno a essere in grado di determinare variabili “proxy” per attributi privati e personali con maggiore precisione. Oggi, ad esempio, i “Mi piace” di Facebook possono essere utilizzati per dedurre l’orientamento sessuale e la razza con notevole precisione. L’affiliazione politica e le credenze religiose sono altrettanto facilmente identificabili. Le aziende potrebbero essere tentate di utilizzare strumenti come questi per esaminare i candidati, ritenendo che, poiché le decisioni non vengono prese direttamente sulla base di caratteristiche protette,non siano legalmente perseguibili? Mentre un datore di lavoro non può violare alcuna legge nel solo discernere le informazioni personali di un richiedente, l’azienda può diventare vulnerabile all’esposizione legale se prende decisioni negative sul lavoro facendo affidamento su categorie protette come il luogo di nascita, la razza o la lingua madre — o sulla base di informazioni private che non ha il diritto di prendere in considerazione, come possibili malattie fisiche o disturbi mentali. Come i tribunali gestiranno le situazioni in cui i datori di lavoro hanno fatto affidamento su strumenti che utilizzano queste variabili proxy non è chiaro; ma resta il fatto che è illegale intraprendere un’azione avversa basata su determinate caratteristiche protette o private — non importa come queste siano state apprese o dedotte.

Questo potrebbe applicarsi anche al software di riconoscimento facciale, poiché una recente ricerca prevede che l’IA di lettura del viso potrebbe presto essere in grado di discernere l’orientamento sessuale e politico dei candidati e gli “stati interni” come l’umore o le emozioni con un alto grado di precisione. Come potrebbe cambiare l’applicazione degli americani con Disabilità Act? Inoltre, la legge sulla protezione del poligrafo dei dipendenti proibisce generalmente ai datori di lavoro di utilizzare i test della macchina della verità come strumento di screening pre-occupazione e la legge sulla non discriminazione delle informazioni genetiche vieta ai datori di lavoro di utilizzare le informazioni genetiche nelle decisioni di lavoro. Ma cosa succede se lo stesso identico tipo di informazioni su verità, bugie o attributi genetici può essere determinato dagli strumenti tecnologici sopra menzionati?

2) Quali tentazioni dovranno affrontare le aziende in termini di privacy dei candidati relativi allo stile di vita e alle attività?

I datori di lavoro possono ora accedere a informazioni come il “check-in” online di un candidato alla sua chiesa ogni domenica mattina, la revisione di un altro candidato della struttura di cura della demenza in cui ha controllato il suo genitore anziano e il deposito del divorzio di un terzo in tribunale civile. Tutte queste cose, e molte altre, sono facilmente individuabili nell’era digitale. I Big data ci seguono ovunque andiamo online e raccolgono e assemblano informazioni che possono essere tagliate e tagliate a dadini da strumenti che non possiamo nemmeno immaginare ancora-strumenti che potrebbero informare i futuri datori di lavoro sulla nostra idoneità (o mancanza) per determinati ruoli. E big data è solo andando a ottenere più grande; secondo gli esperti, il 90% dei dati nel mondo è stato generato solo negli ultimi due anni da solo. Con l’espansione dei dati arriva la potenziale espansione per l’uso improprio e la conseguente discriminazione, intenzionale o non intenzionale.

A differenza dell’UE, che ha armonizzato il suo approccio alla privacy ai sensi del Regolamento generale sulla protezione dei dati (GDPR), gli Stati Uniti si basano su un approccio patchwork alla privacy guidato in gran parte dalla legge statale. Per quanto riguarda i social media, in particolare, gli stati hanno iniziato a introdurre una legislazione nel 2012 per impedire ai datori di lavoro di richiedere password agli account Internet personali come condizione di impiego. Più di venti stati hanno emanato questi tipi di leggi che si applicano ai datori di lavoro. Tuttavia, in termini di privacy generale nell’uso delle nuove tecnologie sul posto di lavoro, vi sono stati orientamenti o azioni meno specifici. In particolare, in California è stata approvata una legislazione che potenzialmente limiterà l’uso dei dati dei candidati o dei dipendenti da parte dei datori di lavoro. In generale, i tribunali statali e federali devono ancora adottare un quadro unificato per analizzare la privacy dei dipendenti in relazione alle nuove tecnologie. L’asporto è che, almeno per ora, la privacy dei dipendenti nell’era dei big data rimane instabile. Questo mette i datori di lavoro in una posizione conflittuale che invita alla cautela: È disponibile una tecnologia all’avanguardia che può essere estremamente utile. Ma ti sta dando informazioni che in precedenza sono state considerate private. È legale da utilizzare in un contesto di assunzione? Ed è etico considerare se il candidato non ha acconsentito?

3) Quali tentazioni dovranno affrontare le aziende in termini di privacy dei candidati in relazione alle disabilità?

L’Americans with Disabilities Act mette le disabilità mentali esattamente nella sua competenza, insieme alle disabilità fisiche, e definisce un individuo come disabile se la menomazione limita sostanzialmente un’attività di vita importante, se la persona ha un record di tale menomazione, o se la persona è percepita come tale menomazione. Circa un decennio fa, gli Stati Uniti. Equal Employment Opportunity Commission (EEOC) ha pubblicato una guida per affermare che l’elenco in espansione dei disturbi di personalità descritti nella letteratura psichiatrica potrebbe qualificarsi come menomazioni mentali, e l’ADA Amendments Act ha reso più facile per un individuo stabilire che lui o lei ha una disabilità ai sensi dell’ADA. Di conseguenza, la categoria di persone protette dall’ADA può ora includere persone che hanno problemi significativi di comunicazione in situazioni sociali, persone che hanno problemi di concentrazione o persone che hanno difficoltà a interagire con gli altri.

Oltre a sollevare nuove domande sulla disabilità, la tecnologia presenta anche nuovi dilemmi rispetto alle differenze, sia demografiche che di altro tipo. Ci sono già state situazioni di vita reale di alto profilo in cui questi sistemi hanno rivelato pregiudizi appresi, in particolare relativi alla razza e al genere. Amazon, ad esempio, ha sviluppato un programma di ricerca automatica dei talenti per rivedere i curriculum — che è stato abbandonato una volta che l’azienda si è resa conto che il programma non valutava i candidati in modo neutro rispetto al genere. Per ridurre tali pregiudizi, gli sviluppatori stanno bilanciando i dati utilizzati per la formazione di modelli AI, per rappresentare in modo appropriato tutti i gruppi. Più informazioni che la tecnologia ha e può spiegare/imparare da, meglio può controllare per potenziali pregiudizi.

In conclusione, le nuove tecnologie possono già attraversare i confini tra attributi pubblici e privati, “tratti” e “stati” in modi nuovi, e ci sono tutte le ragioni per credere che in futuro saranno sempre più in grado di farlo. Utilizzando l’IA, i big data, i social media e l’apprendimento automatico, i datori di lavoro avranno un accesso sempre maggiore alla vita privata dei candidati, agli attributi privati e alle sfide e agli stati d’animo privati. Non ci sono risposte facili a molte delle nuove domande sulla privacy che abbiamo sollevato qui, ma crediamo che siano tutte degne di discussione e dibattito pubblico.

Leave a Reply

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.