Les implications juridiques et éthiques de l’utilisation de l’IA dans l’embauche

Les innovations numériques et les progrès de l’IA ont produit une gamme de nouveaux outils d’identification et d’évaluation des talents. Bon nombre de ces technologies promettent d’aider les organisations à améliorer leur capacité à trouver la bonne personne pour le bon emploi et à éliminer les mauvaises personnes pour les mauvais emplois, plus rapidement et à moindre coût que jamais.

Ces outils confèrent aux organisations un pouvoir sans précédent pour prendre des décisions en matière de capital humain fondées sur des données. Ils ont également le potentiel de démocratiser le feedback, donnant à des millions de candidats des informations basées sur des données sur leurs forces, leurs besoins de développement et leur adéquation potentielle à leur carrière et à leur organisation. En particulier, nous avons vu la croissance rapide (et l’investissement en capital-risque correspondant) des évaluations basées sur les jeux, des robots pour gratter les publications sur les réseaux sociaux, l’analyse linguistique des échantillons d’écriture des candidats et les interviews vidéo qui utilisent des algorithmes pour analyser le contenu de la parole, le ton de la voix, les états émotionnels, les comportements non verbaux et les indices capricieux.

Bien que ces nouveaux outils perturbent l’espace de recrutement et d’évaluation, ils laissent de nombreuses questions encore sans réponse sur leur exactitude et les implications éthiques, juridiques et sur la vie privée qu’ils introduisent. Cela est particulièrement vrai par rapport à des évaluations psychométriques plus anciennes telles que le NEO-PI-R, le Test Wonderlic, le test des matrices progressives Ravens ou l’Inventaire de la personnalité de Hogan qui ont été scientifiquement dérivées et soigneusement validées vis-à-vis d’emplois pertinents, identifiant des associations fiables entre les scores des candidats et leur performance professionnelle ultérieure (publication des preuves dans des revues savantes indépendantes, fiables). Récemment, il y a même eu de l’intérêt et des inquiétudes aux États-Unis. Sénat sur la question de savoir si les nouvelles technologies (en particulier les technologies d’analyse faciale) pourraient avoir des répercussions négatives sur l’égalité des chances entre les candidats à un emploi.

Dans cet article, nous nous concentrons sur les répercussions potentielles des nouvelles technologies sur la vie privée des candidats à un emploi, ainsi que sur les implications pour les protections des candidats en vertu de l’Americans with Disabilities Act et d’autres lois fédérales et étatiques sur l’emploi. Les employeurs reconnaissent qu’ils ne peuvent pas ou ne devraient pas interroger les candidats sur leur situation familiale ou leur orientation politique, ou s’ils sont enceintes, hétéros, homosexuels, tristes, seuls, déprimés, physiquement ou mentalement malades, boivent trop, abusent de drogues ou dorment trop peu. Cependant, les nouvelles technologies peuvent déjà être en mesure de discerner un grand nombre de ces facteurs indirectement et sans consentement approprié (voire aucun).

Avant de plonger dans les ambiguïtés actuelles du nouveau monde courageux de l’évaluation et de l’évaluation des candidats, il est utile de jeter un coup d’œil au passé. Les évaluations psychométriques sont utilisées depuis plus de 100 ans et sont devenues plus largement utilisées à la suite de l’Army Alpha de l’armée américaine, qui a placé les recrues dans des catégories et déterminé leur probabilité de réussir dans divers rôles. Traditionnellement, la psychométrie se répartissait en trois grandes catégories: la capacité cognitive ou l’intelligence, la personnalité ou le tempérament et la santé mentale ou le diagnostic clinique.

Depuis l’adoption de l’Americans with Disabilities Act (ADA) en 1990, il est généralement interdit aux employeurs de s’informer et / ou d’utiliser un handicap physique, une santé mentale ou un diagnostic clinique comme facteur d’évaluation des candidats avant l’emploi, et les entreprises qui l’ont fait ont été poursuivies et censurées. Essentiellement, les handicaps — physiques ou mentaux — ont été déterminés comme étant des informations « privées » dont les employeurs ne peuvent pas se renseigner au stade de la préemploi, tout comme les employeurs ne devraient pas poser aux candidats des questions intrusives sur leur vie privée et ne peuvent pas prendre en compte les informations démographiques privées dans les décisions d’embauche.

Les tests de capacité cognitive et d’intelligence se sont avérés être un prédicteur fiable et valide de la réussite professionnelle dans une grande variété de professions. Cependant, ces types d’évaluations peuvent être discriminatoires si elles ont un impact négatif sur certains groupes protégés, tels que ceux définis par le sexe, la race, l’âge ou l’origine nationale. Si un employeur utilise une évaluation qui s’est avérée avoir un tel impact négatif, qui est défini par les scores relatifs de différents groupes protégés, l’employeur doit prouver que la méthodologie d’évaluation est liée à l’emploi et prédictive de la réussite dans les emplois spécifiques en question.

Les évaluations de la personnalité sont moins susceptibles d’exposer les employeurs à une responsabilité éventuelle pour discrimination, car il existe peu ou pas de corrélation entre les caractéristiques de la personnalité et les variables démographiques protégées ou les handicaps. Il convient également de noter que la relation entre la personnalité et le rendement au travail dépend du contexte (par exemple, le type de rôle ou d’emploi).

Malheureusement, il y a beaucoup moins d’informations sur la nouvelle génération d’outils de talents qui sont de plus en plus utilisés dans l’évaluation avant embauche. Beaucoup de ces outils sont apparus comme des innovations technologiques, plutôt que de méthodes ou de programmes de recherche dérivés scientifiquement. Par conséquent, il n’est pas toujours clair ce qu’ils évaluent, si leurs hypothèses sous-jacentes sont valides ou pourquoi on peut s’attendre à ce qu’ils prédisent le rendement des candidats à un emploi. Par exemple, les propriétés physiques de la parole et de la voix humaine — qui ont longtemps été associées à des éléments de la personnalité — ont été liées à des différences individuelles de performance au travail. Si un outil montre une préférence pour les modèles de parole tels que la cadence ou la hauteur vocale cohérente ou un ton de voix « amical » qui n’ont pas d’impact négatif sur les candidats à un emploi dans un groupe protégé par la loi, il n’y a pas de problème juridique; mais ces outils peuvent ne pas avoir été validés scientifiquement et ne tiennent donc pas compte de l’impact négatif discriminatoire potentiel — ce qui signifie que l’employeur peut encourir une responsabilité pour toute confiance aveugle. En outre, il n’existe pas encore d’hypothèses convaincantes ou de conclusions défendables quant à savoir s’il serait éthique de filtrer les personnes en fonction de leurs voix, qui sont des attributs personnels déterminés physiologiquement et largement immuables.

De même, l’activité sur les médias sociaux — par exemple, l’utilisation de Facebook ou de Twitter — reflète l’intelligence et la personnalité des gens, y compris leurs traits du côté obscur. Mais est-il éthique d’exploiter ces données à des fins d’embauche lorsque les utilisateurs auront généralement utilisé ces applications à des fins différentes et n’auront peut-être pas donné leur consentement à l’analyse des données pour tirer des conclusions privées de leurs publications publiques?

Lorsqu’elles sont utilisées dans le contexte du recrutement, les nouvelles technologies soulèvent un certain nombre de nouvelles questions éthiques et juridiques autour de la vie privée, qui, selon nous, devraient être discutées et débattues publiquement, à savoir:

1) Quelles tentations les entreprises seront-elles confrontées en termes de confidentialité des candidats concernant les attributs personnels?

À mesure que la technologie progresse, le Big Data et l’IA continueront de pouvoir déterminer des variables « proxy  » pour des attributs personnels et privés avec une précision accrue. Aujourd’hui, par exemple, les « j’aime » de Facebook peuvent être utilisés pour déduire l’orientation sexuelle et la race avec une précision considérable. L’appartenance politique et les croyances religieuses sont tout aussi facilement identifiables. Les entreprises pourraient-elles être tentées d’utiliser de tels outils pour sélectionner des candidats, estimant que, parce que les décisions ne sont pas prises directement sur la base de caractéristiques protégées, elles ne sont pas juridiquement exploitables? Bien qu’un employeur ne puisse enfreindre aucune loi en se contentant de discerner les informations personnelles d’un demandeur, l’entreprise peut devenir vulnérable à une exposition légale si elle prend des décisions défavorables en matière d’emploi en se fondant sur des catégories protégées telles que son lieu de naissance, sa race ou sa langue maternelle — ou sur des informations privées qu’elle n’a pas le droit de prendre en compte, telles qu’une éventuelle maladie physique ou une maladie mentale. La façon dont les tribunaux traiteront les situations où les employeurs se sont appuyés sur des outils utilisant ces variables indirectes n’est pas claire; mais il n’en demeure pas moins qu’il est illégal de prendre une mesure défavorable fondée sur certaines caractéristiques protégées ou privées — quelle que soit la façon dont elles ont été apprises ou inférées.

Cela pourrait également s’appliquer aux logiciels de reconnaissance faciale, car des recherches récentes prédisent que l’IA en lecture faciale pourrait bientôt être en mesure de discerner l’orientation sexuelle et politique des candidats ainsi que les « états internes » comme l’humeur ou l’émotion avec un haut degré de précision. Comment l’application de la Loi sur les Américains handicapés pourrait-elle changer? De plus, la Loi sur la protection des polygraphes des employés interdit généralement aux employeurs d’utiliser des tests de détection de mensonges comme outil de dépistage avant l’embauche et la Loi sur la non-discrimination des informations génétiques interdit aux employeurs d’utiliser des informations génétiques dans leurs décisions d’emploi. Mais que se passe-t-il si le même type d’informations sur la vérité, les mensonges ou les attributs génétiques peut être déterminé par les outils technologiques mentionnés ci-dessus?

2) Quelles tentations les entreprises seront-elles confrontées en termes de confidentialité des candidats en matière de style de vie et d’activités?

Les employeurs peuvent désormais accéder à des informations telles que le « check-in » en ligne d’un candidat à son église chaque dimanche matin, l’examen par un autre candidat de l’établissement de soins pour démence dans lequel il a vérifié son parent âgé et le dépôt de divorce d’un troisième devant un tribunal civil. Toutes ces choses, et bien d’autres, sont facilement détectables à l’ère numérique. Les mégadonnées nous suivent partout où nous allons en ligne et collectent et assemblent des informations qui peuvent être tranchées et découpées en dés par des outils que nous ne pouvons même pas encore imaginer — des outils qui pourraient éventuellement informer les futurs employeurs de notre aptitude (ou de notre absence) pour certains rôles. Et le big data ne fera que s’agrandir; selon les experts, 90% des données dans le monde ont été générées rien qu’au cours des deux dernières années. Avec l’expansion des données vient l’expansion potentielle de l’utilisation abusive et de la discrimination qui en résulte – délibérée ou non.

Contrairement à l’UE, qui a harmonisé son approche de la vie privée en vertu du Règlement général sur la Protection des Données (RGPD), les États-Unis s’appuient sur une approche hétéroclite de la vie privée dictée en grande partie par le droit des États. En ce qui concerne les médias sociaux, en particulier, les États ont commencé à introduire une législation en 2012 pour empêcher les employeurs de demander des mots de passe à des comptes Internet personnels comme condition d’emploi. Plus de vingt États ont adopté ce type de lois qui s’appliquent aux employeurs. Cependant, en ce qui concerne la protection générale de la vie privée dans l’utilisation des nouvelles technologies sur le lieu de travail, il y a eu des directives ou des mesures moins spécifiques. En particulier, une législation a été adoptée en Californie qui limitera potentiellement l’utilisation par les employeurs des données des candidats ou des employés. En général, les tribunaux d’État et fédéraux n’ont pas encore adopté de cadre unifié pour analyser la vie privée des employés en relation avec les nouvelles technologies. Le point à retenir est qu’au moins pour l’instant, la vie privée des employés à l’ère du big Data reste instable. Cela place les employeurs dans une position conflictuelle qui appelle à la prudence: Il existe une technologie de pointe qui peut être extrêmement utile. Mais cela vous donne des informations qui ont déjà été considérées comme privées. Est-il légal de l’utiliser dans un contexte d’embauche? Et est-il éthique de considérer si le candidat n’a pas consenti?

3) Quelles tentations les entreprises seront-elles confrontées en termes de confidentialité des candidats en matière de handicap ?

L’Americans with Disabilities Act place carrément les handicaps mentaux dans son champ de compétence, aux côtés des handicaps physiques, et définit un individu comme handicapé si la déficience limite considérablement une activité majeure de la vie, si la personne a des antécédents d’une telle déficience, ou si la personne est perçue comme ayant une telle déficience. Il y a une dizaine d’années, Les États-Unis. La Commission pour l’égalité des chances en matière d’emploi (EEOC) a publié des directives indiquant que la liste croissante des troubles de la personnalité décrits dans la littérature psychiatrique pouvait être qualifiée de déficiences mentales, et la Loi modifiant l’ADA a permis à une personne d’établir plus facilement qu’elle a un handicap au sens de l’ADA. Par conséquent, la catégorie des personnes protégées par l’ADA peut maintenant inclure les personnes qui ont d’importants problèmes de communication dans des situations sociales, les personnes qui ont des problèmes de concentration ou les personnes qui ont de la difficulté à interagir avec les autres.

En plus de soulever de nouvelles questions sur les handicaps, la technologie présente également de nouveaux dilemmes en ce qui concerne les différences, qu’elles soient démographiques ou autres. Il y a déjà eu des situations réelles très médiatisées où ces systèmes ont révélé des biais appris, en particulier en ce qui concerne la race et le sexe. Amazon, par exemple, a développé un programme de recherche de talents automatisé pour examiner les CV — qui a été abandonné une fois que l’entreprise s’est rendu compte que le programme n’évaluait pas les candidats de manière non sexiste. Pour réduire ces biais, les développeurs équilibrent les données utilisées pour la formation des modèles d’IA, afin de représenter de manière appropriée tous les groupes. Plus la technologie dispose d’informations et peut en rendre compte/en tirer des leçons, mieux elle peut contrôler les biais potentiels.

En conclusion, les nouvelles technologies peuvent déjà franchir les frontières entre les attributs, les « traits » et les « États » publics et privés de manière nouvelle, et il y a tout lieu de croire qu’à l’avenir elles seront de plus en plus en mesure de le faire. Grâce à l’IA, au big Data, aux médias sociaux et à l’apprentissage automatique, les employeurs auront toujours plus accès à la vie privée des candidats, aux attributs privés, aux défis et aux états d’esprit privés. Il n’y a pas de réponses faciles à bon nombre des nouvelles questions sur la protection de la vie privée que nous avons soulevées ici, mais nous pensons qu’elles méritent toutes une discussion et un débat publics.

Leave a Reply

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.