As implicações legais e éticas do uso da IA na contratação

inovações digitais e avanços na IA produziram uma série de novas ferramentas de identificação e avaliação de talentos. Muitas dessas tecnologias prometem ajudar as organizações a melhorar sua capacidade de encontrar a pessoa certa para o trabalho certo e selecionar as pessoas erradas para os empregos errados, mais rápido e mais barato do que nunca.Essas ferramentas colocam um poder sem precedentes nas mãos das organizações para buscar decisões de capital humano baseadas em dados. Eles também têm o potencial de democratizar o feedback, dando a milhões de candidatos a emprego insights orientados por dados sobre seus pontos fortes, necessidades de desenvolvimento e potencial de carreira e adequação organizacional. Em particular, vimos o rápido crescimento (e correspondente investimento de capital de risco) em avaliações baseadas em jogos, bots para raspar postagens de mídia social, análise linguística de amostras de escrita dos candidatos e entrevistas baseadas em vídeo que utilizam algoritmos para analisar o conteúdo da fala, tom de voz, estados emocionais, comportamentos não verbais e pistas temperamentais.Embora essas novas ferramentas estejam interrompendo o espaço de recrutamento e avaliação, elas deixam muitas perguntas ainda sem resposta sobre sua precisão e as implicações éticas, legais e de Privacidade que introduzem. Isso é especialmente verdadeiro quando comparado a avaliações psicométricas de longa data, como o NEO-PI-R, o teste Wonderlic, o teste de matrizes progressivas Ravens ou o inventário de personalidade Hogan que foram cientificamente derivados e cuidadosamente validados em relação a trabalhos relevantes, identificando associações confiáveis entre as pontuações dos candidatos e seu desempenho profissional subsequente (publicando as evidências em periódicos acadêmicos independentes, confiáveis). Recentemente, houve até interesse e preocupação nos EUA. Senado sobre se as novas tecnologias (especificamente, tecnologias de análise facial) podem ter implicações negativas para a igualdade de oportunidades entre os candidatos a emprego.Neste artigo, nos concentramos nas potenciais repercussões das novas tecnologias na privacidade dos candidatos a emprego, bem como nas implicações para as proteções dos candidatos sob a lei dos americanos com deficiência e outras leis federais e estaduais de emprego. Os empregadores reconhecem que não podem ou não devem perguntar aos candidatos sobre seu status familiar ou orientação política, ou se estão grávidas, heterossexuais, gays, tristes, solitários, deprimidos, fisicamente ou mentalmente doentes, bebendo demais, abusando de drogas ou dormindo muito pouco. No entanto, as novas tecnologias já podem ser capazes de discernir muitos desses fatores indiretamente e sem o consentimento adequado (ou mesmo qualquer).

Antes de aprofundar as ambiguidades atuais do Admirável Mundo Novo da avaliação e avaliação de candidatos a emprego, é útil dar uma olhada no passado. As avaliações psicométricas estão em uso há mais de 100 anos e se tornaram mais amplamente utilizadas como resultado do exército Alfa dos militares dos Estados Unidos, que colocou recrutas em categorias e determinou sua probabilidade de ter sucesso em várias funções. Tradicionalmente, a psicometria se enquadrava em três grandes categorias: capacidade cognitiva ou inteligência, personalidade ou temperamento e saúde mental ou diagnóstico clínico.Desde a adoção do Americans with Disabilities Act (ada) em 1990, os empregadores são geralmente proibidos de perguntar sobre e/ou usar deficiência física, saúde mental ou diagnóstico clínico como um fator nas avaliações de candidatos pré-emprego, e as empresas que o fizeram foram processadas e censuradas. Em essência, as deficiências-físicas ou mentais — foram determinadas como informações “privadas” sobre as quais os empregadores não podem perguntar na fase pré-emprego, assim como os empregadores não devem fazer perguntas intrusivas aos candidatos sobre suas vidas privadas e não podem levar em consideração as informações demográficas privadas nas decisões de contratação.

os testes de capacidade cognitiva e inteligência foram considerados um preditor confiável e Válido de sucesso no trabalho em uma ampla variedade de ocupações. No entanto, esses tipos de avaliações podem ser discriminatórios se afetarem negativamente certos grupos protegidos, como aqueles definidos por gênero, raça, idade ou origem nacional. Se um empregador estiver utilizando uma avaliação que tenha um impacto tão adverso, que é definido pelas pontuações relativas de diferentes grupos protegidos, o empregador deve provar que a metodologia de avaliação está relacionada ao trabalho e preditiva de sucesso nos trabalhos específicos em questão.As avaliações de personalidade são menos propensas a expor os empregadores a possíveis responsabilidades por discriminação, uma vez que há pouca ou nenhuma correlação entre características de personalidade e variáveis demográficas protegidas ou deficiências. Também deve ser notado que a relação entre personalidade e desempenho no trabalho depende do contexto (por exemplo, tipo de função ou Trabalho).Infelizmente, há muito menos informações sobre a nova geração de ferramentas de talentos que são cada vez mais usadas na avaliação pré-contratação. Muitas dessas ferramentas surgiram como inovações tecnológicas, em vez de métodos ou programas de pesquisa de origem científica. Como resultado, nem sempre está claro o que eles avaliam, se suas hipóteses subjacentes são válidas ou por que eles podem prever o desempenho dos candidatos a emprego. Por exemplo, as propriedades físicas da fala e da voz humana — que há muito tempo estão associadas a elementos de personalidade — têm sido associadas a diferenças individuais no desempenho do trabalho. Se uma ferramenta mostra uma preferência por padrões de fala, tais como consistente cadência da voz ou o tom ou um “amigável” tom de voz que não tenham um impacto negativo sobre o trabalho candidatos legalmente protegidos do grupo, então não há nenhum problema legal; mas estas ferramentas podem não ter sido validado cientificamente e, portanto, não estão controlando o potencial discriminatório impacto adverso, o que significa que o empregador pode incorrer em responsabilidade por qualquer cega confiança. Além disso, ainda não há hipóteses convincentes ou conclusões defensáveis sobre se seria ético rastrear pessoas com base em suas vozes, que são fisiologicamente determinadas, atributos pessoais amplamente imutáveis.Da mesma forma, a atividade de mídia social — por exemplo, o uso do Facebook ou Twitter — refletiu a inteligência e a personalidade das pessoas, incluindo seus traços do lado negro. Mas é ético extrair esses dados para fins de contratação quando os usuários geralmente usam esses aplicativos para fins diferentes e podem não ter fornecido seu consentimento para a análise de dados para tirar conclusões privadas de suas postagens públicas?

quando usadas no contexto de contratação, as novas tecnologias levantam uma série de novas questões éticas e legais em torno da privacidade, que achamos que devem ser discutidas e debatidas publicamente, a saber:

1) que tentações as empresas enfrentarão em termos de privacidade dos candidatos em relação aos atributos pessoais?À medida que a tecnologia avança, o big data e a IA continuarão a ser capazes de determinar variáveis “proxy” para atributos pessoais privados com maior precisão. Hoje, por exemplo, os “likes” do Facebook podem ser usados para inferir orientação sexual e raça com considerável precisão. Afiliação política e crenças religiosas são tão facilmente identificáveis. As empresas podem ser tentadas a usar ferramentas como essas para selecionar candidatos, acreditando que, como as decisões não são tomadas diretamente com base em características protegidas, elas não são legalmente acionáveis? Enquanto os empregadores não poderão violar as leis em apenas exigentes de um candidato, informações pessoais, a empresa pode tornar-se vulnerável à exposição legal se faz adversos decisões de emprego, por depender de qualquer protegido por categorias, tais como local de nascimento, raça, ou língua materna, ou com base em informações privadas que não tenho o direito de considerar, tal como uma possível doença física ou mental, doença. Como os tribunais lidarão com situações em que os empregadores confiaram em ferramentas usando essas variáveis de proxy não está claro; mas o fato é que é ilegal tomar uma ação adversa com base em certas características protegidas ou privadas — não importa como elas foram aprendidas ou inferidas.Isso também pode se aplicar ao software de reconhecimento facial, já que pesquisas recentes prevêem que a IA de leitura facial pode em breve ser capaz de discernir a orientação sexual e política dos candidatos, bem como “estados internos” como humor ou emoção com um alto grau de precisão. Como a aplicação da Lei dos americanos com deficiência pode mudar? Além disso, a Lei de proteção de polígrafo de funcionários geralmente proíbe os empregadores de usar testes de detector de mentiras como uma ferramenta de triagem pré-emprego e a Lei de não discriminação de informações genéticas proíbe os empregadores de usar informações genéticas em decisões de emprego. Mas e se o mesmo tipo exato de informação sobre verdade, mentiras ou atributos genéticos puder ser determinado pelas ferramentas tecnológicas acima mencionadas?

2) que tentações as empresas enfrentarão em termos de privacidade dos candidatos em relação ao estilo de vida e às atividades?Os empregadores agora podem acessar informações como o “check-in” on-line de um candidato em sua igreja todos os domingos de manhã, a revisão de outro candidato do centro de atendimento à demência em que ele verificou seu pai idoso e o pedido de divórcio de um terceiro em tribunal civil. Todas essas coisas, e muito mais, são facilmente detectáveis na era digital. Big data está nos seguindo em todos os lugares que vamos online e coletando e montando informações que podem ser cortadas e cortadas em cubos por ferramentas que ainda não podemos imaginar — ferramentas que poderiam informar futuros empregadores sobre nossa aptidão (ou falta dela) para certas funções. E o big data só vai ficar maior; de acordo com especialistas, 90% dos dados no mundo foram gerados apenas nos últimos dois anos. Com a expansão dos dados, vem a expansão potencial para uso indevido e discriminação resultante — deliberada ou não intencional.Ao contrário da UE, que harmonizou sua abordagem à privacidade sob o Regulamento Geral de proteção de dados (GDPR), os EUA dependem de uma abordagem abrangente da privacidade impulsionada em grande parte pela lei estadual. No que diz respeito às mídias sociais, especificamente, os estados começaram a introduzir legislação em 2012 para impedir que os empregadores solicitassem senhas para contas pessoais da internet como condição de emprego. Mais de vinte estados promulgaram esses tipos de leis que se aplicam aos empregadores. No entanto, em termos de privacidade geral no uso de novas tecnologias no local de trabalho, houve orientações ou ações menos específicas. Em particular, a legislação foi aprovada na Califórnia que potencialmente restringirá o uso de dados de candidatos ou funcionários pelos empregadores. Em geral, os tribunais estaduais e federais ainda precisam adotar uma estrutura unificada para analisar a privacidade dos funcionários relacionada à nova tecnologia. A conclusão é que, pelo menos por enquanto, a privacidade dos funcionários na era do big data permanece instável. Isso coloca os empregadores em uma posição conflituosa que exige cautela: Tecnologia de ponta está disponível que pode ser extremamente útil. Mas está lhe dando informações que antes eram consideradas privadas. É legal usar em um contexto de contratação? E é ético considerar se o candidato não consentiu?

3) que tentações as empresas enfrentarão em termos de privacidade dos candidatos em relação às deficiências?A lei dos americanos com deficiência coloca as deficiências mentais diretamente em seu alcance, juntamente com as deficiências físicas, e define um indivíduo como deficiente se a deficiência limita substancialmente uma atividade importante na vida, se a pessoa tem um registro de tal deficiência, ou se a pessoa é percebida como tendo tal deficiência. Cerca de uma década atrás, os EUA. Equal Employment Opportunity Commission (EEOC) publicou orientações para dizer que a expansão da lista de transtornos de personalidade descritos na literatura psiquiátrica poderia qualificar-se como deficiência mental, e a ADA Alterações Lei tornou mais fácil para um indivíduo, para estabelecer que ele ou ela tem uma deficiência na acepção da ADA. Como resultado, a categoria de pessoas protegidas sob a ADA pode agora incluir pessoas que têm problemas significativos de comunicação em situações sociais, pessoas que têm problemas de concentração ou pessoas que têm dificuldade em interagir com outras pessoas.

além de levantar novas questões sobre deficiências, a tecnologia também apresenta novos dilemas em relação às diferenças, sejam elas demográficas ou não. Já houve situações reais de alto perfil em que esses sistemas revelaram vieses aprendidos, especialmente relacionados a raça e gênero. A Amazon, por exemplo, desenvolveu um programa automatizado de busca de talentos para revisar currículos — que foi abandonado quando a empresa percebeu que o programa não estava classificando os candidatos de maneira neutra em termos de gênero. Para reduzir esses vieses, os desenvolvedores estão equilibrando os dados usados para treinar modelos de IA, para representar adequadamente todos os grupos. Quanto mais informações a tecnologia tiver e puder explicar/aprender, melhor ela poderá controlar para possíveis vieses.Em conclusão, as novas tecnologias já podem cruzar as linhas entre atributos públicos e privados, “traços” e “estados” de novas maneiras, e há todos os motivos para acreditar que no futuro eles serão cada vez mais capazes de fazê-lo. Usando IA, big data, mídia social e aprendizado de máquina, os empregadores terão acesso cada vez maior à vida privada dos candidatos, aos atributos privados e aos desafios e estados de espírito privados. Não há respostas fáceis para muitas das novas questões sobre privacidade que levantamos aqui, mas acreditamos que todas elas são dignas de discussão e debate público.

Leave a Reply

Deixe uma resposta

O seu endereço de email não será publicado.