Las Implicaciones Legales y Éticas del Uso de la IA en la Contratación

Las innovaciones digitales y los avances en IA han producido una serie de herramientas novedosas de identificación y evaluación de talentos. Muchas de estas tecnologías prometen ayudar a las organizaciones a mejorar su capacidad para encontrar a la persona adecuada para el trabajo correcto y detectar a las personas equivocadas para los trabajos equivocados, más rápido y más barato que nunca.

Estas herramientas ponen un poder sin precedentes en manos de las organizaciones para tomar decisiones de capital humano basadas en datos. También tienen el potencial de democratizar la retroalimentación, brindando a millones de candidatos de empleo información basada en datos sobre sus fortalezas, necesidades de desarrollo y potencial carrera y ajuste organizacional. En particular, hemos visto el rápido crecimiento (y la correspondiente inversión de capital de riesgo) en las evaluaciones basadas en juegos, los bots para raspar publicaciones en redes sociales, el análisis lingüístico de las muestras de escritura de los candidatos y las entrevistas basadas en video que utilizan algoritmos para analizar el contenido del habla, el tono de voz, los estados emocionales, los comportamientos no verbales y las pistas temperamentales.

Si bien estas novedosas herramientas están interrumpiendo el espacio de reclutamiento y evaluación, dejan muchas preguntas sin respuesta sobre su precisión y las implicaciones éticas, legales y de privacidad que introducen. Esto es especialmente cierto cuando se compara con evaluaciones psicométricas más antiguas, como el NEO-PI-R, la Prueba Wonderlic, la prueba de Matrices Progresivas de Ravens o el Inventario de Personalidad de Hogan, que se han derivado científicamente y se han validado cuidadosamente con respecto a trabajos relevantes, identificando asociaciones confiables entre las calificaciones de los solicitantes y su desempeño laboral posterior (publicando la evidencia en revistas académicas independientes y confiables). Recientemente, incluso ha habido interés y preocupación en Estados Unidos. Senado sobre si las nuevas tecnologías (específicamente, las tecnologías de análisis facial) podrían tener implicaciones negativas para la igualdad de oportunidades entre los candidatos al empleo.

En este artículo, nos centramos en las posibles repercusiones de las nuevas tecnologías en la privacidad de los candidatos, así como en las implicaciones para la protección de los candidatos bajo la Ley de Estadounidenses con Discapacidades y otras leyes de empleo federales y estatales. Los empleadores reconocen que no pueden o no deben preguntar a los candidatos sobre su estado familiar u orientación política, o si están embarazadas, heterosexuales, homosexuales, tristes, solitarios, deprimidos, enfermos físicos o mentales, beben demasiado, abusan de las drogas o duermen muy poco. Sin embargo, es posible que las nuevas tecnologías ya puedan discernir muchos de estos factores de forma indirecta y sin el consentimiento adecuado (o incluso sin ningún consentimiento).

Antes de ahondar en las ambigüedades actuales del nuevo y valiente mundo de la evaluación y evaluación de candidatos a puestos de trabajo, es útil echar un vistazo al pasado. Las evaluaciones psicométricas han estado en uso durante más de 100 años, y se han utilizado más ampliamente como resultado del Ejército Alfa del Ejército de los Estados Unidos, que clasificaba a los reclutas en categorías y determinaba su probabilidad de tener éxito en varios roles. Tradicionalmente, la psicometría se dividía en tres grandes categorías: capacidad cognitiva o inteligencia, personalidad o temperamento, y salud mental o diagnóstico clínico.

Desde la adopción de la Ley de Estadounidenses con Discapacidades (ADA, por sus siglas en inglés) en 1990, a los empleadores generalmente se les prohíbe preguntar y/o usar la discapacidad física, la salud mental o el diagnóstico clínico como factor en las evaluaciones de candidatos antes del empleo, y las empresas que lo han hecho han sido demandadas y censuradas. En esencia, se ha determinado que las discapacidades, ya sean físicas o mentales, son información «privada» que los empleadores no pueden consultar en la etapa previa al empleo, al igual que los empleadores no deben hacer preguntas intrusivas a los solicitantes sobre sus vidas privadas y no pueden tener en cuenta la información demográfica privada en las decisiones de contratación.

Se ha comprobado que las pruebas de capacidad cognitiva e inteligencia son un indicador fiable y válido del éxito laboral en una amplia variedad de ocupaciones. Sin embargo, este tipo de evaluaciones pueden ser discriminatorias si afectan negativamente a ciertos grupos protegidos, como los definidos por género, raza, edad u origen nacional. Si un empleador está utilizando una evaluación que se ha determinado que tiene un efecto adverso de este tipo, que se define por las puntuaciones relativas de los diferentes grupos protegidos, el empleador tiene que demostrar que la metodología de evaluación está relacionada con el trabajo y pronostica el éxito en los trabajos específicos en cuestión.

Es menos probable que las evaluaciones de la personalidad expongan a los empleadores a una posible responsabilidad por discriminación, ya que hay poca o ninguna correlación entre las características de la personalidad y las variables demográficas o discapacidades protegidas. También debe tenerse en cuenta que la relación entre la personalidad y el desempeño en el trabajo depende del contexto (por ejemplo, el tipo de función o trabajo).

Desafortunadamente, hay mucha menos información sobre la nueva generación de herramientas de talento que se utilizan cada vez más en la evaluación previa a la contratación. Muchas de estas herramientas han surgido como innovaciones tecnológicas, en lugar de a partir de métodos o programas de investigación derivados de la ciencia. Como resultado, no siempre está claro lo que evalúan, si sus hipótesis subyacentes son válidas o por qué se espera que predigan el desempeño de los candidatos. Por ejemplo, las propiedades físicas del habla y la voz humana, que durante mucho tiempo se han asociado con elementos de la personalidad, se han vinculado a diferencias individuales en el desempeño laboral. Si una herramienta muestra una preferencia por patrones de habla como la cadencia o el tono vocal consistentes o un tono de voz «amigable» que no tienen un impacto adverso sobre los candidatos a un trabajo en un grupo legalmente protegido, entonces no hay un problema legal; pero estas herramientas pueden no haber sido validadas científicamente y, por lo tanto, no controlan el posible impacto negativo discriminatorio, lo que significa que el empleador puede incurrir en responsabilidad por cualquier dependencia ciega. Además, todavía no hay hipótesis convincentes o conclusiones defendibles sobre si sería ético excluir a las personas en función de sus voces, que están determinadas fisiológicamente y son atributos personales en gran medida inmutables.

Asimismo, se ha descubierto que la actividad en las redes sociales, por ejemplo, el uso de Facebook o Twitter, refleja la inteligencia y la personalidad de las personas, incluidos sus rasgos del lado oscuro. Pero, ¿es ético extraer estos datos para fines de contratación cuando los usuarios generalmente han utilizado dichas aplicaciones para diferentes fines y es posible que no hayan dado su consentimiento para el análisis de datos para extraer conclusiones privadas de sus publicaciones públicas?

Cuando se utilizan en el contexto de contratación, las nuevas tecnologías plantean una serie de nuevas cuestiones éticas y legales en torno a la privacidad, que creemos que deben discutirse y debatirse públicamente, a saber:

1) ¿A qué tentaciones se enfrentarán las empresas en términos de privacidad de los candidatos en relación con los atributos personales?

A medida que avance la tecnología, el big data y la IA seguirán siendo capaces de determinar variables «proxy» para atributos privados y personales con mayor precisión. Hoy en día, por ejemplo, los «me gusta» de Facebook se pueden usar para inferir la orientación sexual y la raza con una precisión considerable. La afiliación política y las creencias religiosas son igualmente fácilmente identificables. ¿Podrían las empresas sentirse tentadas a usar herramientas como estas para seleccionar a los candidatos, creyendo que debido a que las decisiones no se toman directamente en función de características protegidas, no son legalmente procesables? Si bien un empleador no puede violar ninguna ley al simplemente discernir la información personal de un solicitante, la compañía puede volverse vulnerable a la exposición legal si toma decisiones de empleo adversas al confiar en categorías protegidas, como el lugar de nacimiento, la raza o el idioma nativo de uno, o en base a información privada que no tiene derecho a considerar, como una posible enfermedad física o mental. No está claro cómo manejarán los tribunales las situaciones en las que los empleadores han confiado en herramientas que utilizan estas variables proxy; pero el hecho es que es ilegal tomar una acción adversa basada en ciertas características protegidas o privadas, sin importar cómo se aprendieron o inferieron.

Esto también podría aplicarse al software de reconocimiento facial, ya que investigaciones recientes predicen que la IA de lectura de rostros pronto podrá discernir la orientación sexual y política de los candidatos, así como los «estados internos», como el estado de ánimo o las emociones, con un alto grado de precisión. ¿Cómo podría cambiar la aplicación de la Ley de Estadounidenses con Discapacidades? Además, la Ley de Protección del Polígrafo para Empleados generalmente prohíbe a los empleadores el uso de pruebas de detección de mentiras como herramienta de detección previa al empleo y la Ley de No Discriminación por Información Genética prohíbe a los empleadores el uso de información genética en las decisiones de empleo. Pero, ¿y si las herramientas tecnológicas mencionadas anteriormente pudieran determinar exactamente el mismo tipo de información sobre la verdad, las mentiras o los atributos genéticos?

2) ¿A qué tentaciones se enfrentarán las empresas en términos de privacidad de los candidatos en relación con el estilo de vida y las actividades?

Los empleadores ahora pueden acceder a información como el «check-in» en línea de un candidato a su iglesia cada domingo por la mañana, la revisión de otro candidato del centro de atención para la demencia en el que ha ingresado a su padre anciano y la presentación de un tercero de divorcio en un tribunal civil. Todas estas cosas, y muchas más, se pueden descubrir fácilmente en la era digital. El Big data nos sigue a todas partes que vamos en línea y recopila y recopila información que se puede cortar y cortar en cubos con herramientas que aún no podemos imaginar, herramientas que podrían informar a futuros empleadores sobre nuestra aptitud (o falta de ella) para ciertos roles. Y el big data solo va a crecer; según los expertos, el 90% de los datos en el mundo se generaron solo en los últimos dos años. Con la expansión de los datos viene la expansión potencial del uso indebido y la discriminación resultante, ya sea deliberada o involuntaria.

A diferencia de la UE, que ha armonizado su enfoque de privacidad bajo el Reglamento General de Protección de Datos (RGPD), los Estados Unidos se basan en un enfoque de retazos de privacidad impulsado en gran medida por la ley estatal. Con respecto a las redes sociales, específicamente, los estados comenzaron a introducir legislación en 2012 para evitar que los empleadores soliciten contraseñas para cuentas personales de Internet como condición de empleo. Más de veinte estados han promulgado este tipo de leyes que se aplican a los empleadores. Sin embargo, en términos de privacidad general en el uso de las nuevas tecnologías en el lugar de trabajo, ha habido orientaciones o medidas menos específicas. En particular, se ha aprobado legislación en California que potencialmente limitará el uso de los datos de los candidatos o empleados por parte de los empleadores. En general, los tribunales estatales y federales aún no han adoptado un marco unificado para analizar la privacidad de los empleados en relación con las nuevas tecnologías. La conclusión es que, al menos por ahora, la privacidad de los empleados en la era del big data sigue sin resolverse. Esto pone a los empleadores en una posición conflictiva que exige precaución: Se dispone de tecnología de vanguardia que puede ser extremadamente útil. Pero te está dando información que anteriormente se consideraba privada. ¿Es legal usarlo en un contexto de contratación? ¿Y es ético considerar si el candidato no dio su consentimiento?

3) ¿A qué tentaciones se enfrentarán las empresas en términos de privacidad de los candidatos en relación con las discapacidades?

La Ley de Estadounidenses con Discapacidades coloca las discapacidades mentales directamente en su ámbito de aplicación, junto con las discapacidades físicas, y define a un individuo como discapacitado si el impedimento limita sustancialmente una actividad importante de la vida, si la persona tiene un registro de tal impedimento, o si se percibe que la persona tiene tal impedimento. Hace aproximadamente una década, Los EE.UU. La Comisión de Igualdad de Oportunidades en el Empleo (EEOC, por sus siglas en inglés) emitió una guía para decir que la lista en expansión de trastornos de personalidad descritos en la literatura psiquiátrica podría calificar como deficiencias mentales, y la Ley de Enmiendas a la ADA hizo más fácil para un individuo establecer que tiene una discapacidad en el sentido de la ADA. Como resultado, la categoría de personas protegidas bajo la ADA ahora puede incluir a personas que tienen problemas significativos para comunicarse en situaciones sociales, personas que tienen problemas para concentrarse o personas que tienen dificultades para interactuar con otros.

Además de plantear nuevas preguntas sobre discapacidades, la tecnología también presenta nuevos dilemas con respecto a las diferencias, ya sean demográficas o de otro tipo. Ya ha habido situaciones de la vida real de alto perfil en las que estos sistemas han revelado sesgos aprendidos, especialmente en relación con la raza y el género. Amazon, por ejemplo, desarrolló un programa automatizado de búsqueda de talentos para revisar currículos, que se abandonó una vez que la empresa se dio cuenta de que el programa no calificaba a los candidatos de manera neutral en cuanto al género. Para reducir estos sesgos, los desarrolladores están equilibrando los datos utilizados para entrenar modelos de IA, para representar adecuadamente a todos los grupos. Cuanta más información tenga la tecnología y de la que pueda dar cuenta o aprender, mejor podrá controlar los posibles sesgos.

En conclusión, las nuevas tecnologías ya pueden cruzar las líneas entre atributos, «rasgos» y «estados» públicos y privados de nuevas maneras, y hay muchas razones para creer que en el futuro serán cada vez más capaces de hacerlo. Mediante la IA, el big data, las redes sociales y el aprendizaje automático, los empleadores tendrán un acceso cada vez mayor a la vida privada, los atributos privados y los desafíos y estados mentales privados de los candidatos. No hay respuestas fáciles a muchas de las nuevas preguntas sobre la privacidad que hemos planteado aquí, pero creemos que todas son dignas de discusión y debate público.

Leave a Reply

Deja una respuesta

Tu dirección de correo electrónico no será publicada.