Prawne i etyczne konsekwencje korzystania z AI w zatrudnianiu

cyfrowe innowacje i postęp w sztucznej inteligencji stworzyły szereg nowatorskich narzędzi do identyfikacji i oceny talentów. Wiele z tych technologii obiecuje pomóc organizacjom poprawić ich zdolność do znalezienia odpowiedniej osoby do właściwego stanowiska i przesiewania niewłaściwych ludzi do niewłaściwych miejsc pracy, szybciej i taniej niż kiedykolwiek wcześniej.

narzędzia te dają bezprecedensową moc w rękach organizacji do podejmowania decyzji dotyczących kapitału ludzkiego opartych na danych. Mogą również demokratyzować informacje zwrotne, dając milionom kandydatów do pracy wgląd w ich mocne strony, potrzeby rozwojowe oraz potencjalną karierę i dopasowanie organizacyjne. W szczególności obserwujemy szybki wzrost (i odpowiednie inwestycje venture capital) W oceny oparte na grach, boty do skrobania postów w mediach społecznościowych, analizę językową próbek pisania kandydatów i wywiady wideo, które wykorzystują algorytmy do analizy treści mowy, tonu głosu, stanów emocjonalnych, niewerbalnych zachowań i wskazówek temperamentu.

podczas gdy te nowatorskie narzędzia zakłócają przestrzeń rekrutacji i oceny, pozostawiają wiele jeszcze bez odpowiedzi na pytania dotyczące ich dokładności oraz konsekwencji etycznych, prawnych i dotyczących prywatności, które wprowadzają. Jest to szczególnie prawdziwe w porównaniu z bardziej długoletnimi ocenami psychometrycznymi, takimi jak Neo-PI-R, Test Wonderlic, Test Ravens Progressive Matrices czy Hogan Personality Inventory, które zostały naukowo opracowane i starannie zatwierdzone w odniesieniu do odpowiednich stanowisk pracy, identyfikując wiarygodne powiązania między wynikami kandydatów a ich późniejszymi wynikami pracy (publikując dowody w niezależnych, godnych zaufania czasopismach naukowych). Ostatnio nawet zainteresowanie i obawy w USA. Senat o tym, czy nowe technologie (w szczególności technologie analizy twarzy) mogą mieć negatywny wpływ na równość szans wśród kandydatów do pracy.

w tym artykule skupiamy się na potencjalnych konsekwencjach nowych technologii dla prywatności kandydatów do pracy, a także na implikacjach dla ochrony kandydatów zgodnie z Ustawą o Amerykanach z niepełnosprawnościami i innymi federalnymi i stanowymi przepisami dotyczącymi zatrudnienia. Pracodawcy zdają sobie sprawę, że nie mogą lub nie powinni pytać kandydatów o ich status rodzinny lub orientację polityczną, lub czy są w ciąży, Hetero, Geje, smutni, samotni, przygnębieni, chorzy fizycznie lub psychicznie, pijący za dużo, nadużywający narkotyków lub śpiący za mało. Jednak nowe technologie mogą już być w stanie dostrzec wiele z tych czynników pośrednio i bez odpowiedniej (lub nawet jakiejkolwiek) zgody.

zanim zagłębisz się w obecne niejasności nowego, odważnego świata oceny i oceny kandydatów do pracy, warto spojrzeć na przeszłość. Oceny psychometryczne były używane od ponad 100 lat i stały się szerzej wykorzystywane w wyniku amerykańskiej armii wojskowej Alpha, która umieszczała rekrutów w kategoriach i określała ich prawdopodobieństwo powodzenia w różnych rolach. Tradycyjnie psychometria dzieliła się na trzy szerokie kategorie: zdolności poznawcze lub inteligencję, osobowość lub temperament oraz zdrowie psychiczne lub diagnozę kliniczną.

od czasu przyjęcia ustawy o Amerykanach z niepełnosprawnością (ADA) w 1990 r. pracodawcy generalnie nie mogą pytać o i / lub używać niepełnosprawności fizycznej, zdrowia psychicznego lub diagnozy klinicznej jako czynnika w ocenach kandydatów przed zatrudnieniem, a firmy, które to zrobiły, zostały pozwane i ocenzurowane. W istocie, niepełnosprawność-czy fizyczne lub psychiczne — zostały określone jako” prywatne ” informacje, że pracodawcy nie mogą zapytać o na etapie przed zatrudnieniem, tak jak pracodawcy nie powinni zadawać wnioskodawcom natrętne pytania dotyczące ich życia prywatnego, i nie mogą brać prywatnych informacji demograficznych pod uwagę przy podejmowaniu decyzji o zatrudnieniu.

testy zdolności poznawczych i inteligencji okazały się wiarygodnym i prawidłowym wyznacznikiem sukcesu zawodowego w wielu różnych zawodach. Tego rodzaju oceny mogą jednak mieć charakter dyskryminacyjny, jeśli mają niekorzystny wpływ na niektóre chronione grupy, takie jak grupy określone ze względu na płeć, rasę, wiek lub pochodzenie narodowe. Jeśli pracodawca korzysta z oceny, która okazała się mieć tak niekorzystny wpływ, zdefiniowanej przez względne wyniki różnych grup chronionych, pracodawca musi udowodnić, że metodologia oceny jest związana z pracą i prognozuje sukces na danym stanowisku pracy.

oceny osobowości są mniej prawdopodobne, aby narażać pracodawców na ewentualną odpowiedzialność za dyskryminację, ponieważ istnieje niewiele lub nie ma korelacji między cechami osobowości a chronionymi zmiennymi demograficznymi lub niepełnosprawnością. Należy również zauważyć, że związek między osobowością a wydajnością pracy zależy od kontekstu (np. rodzaju roli lub pracy).

niestety, jest znacznie mniej informacji na temat nowej generacji narzędzi do oceny talentów, które są coraz częściej wykorzystywane w ocenie przed zatrudnieniem. Wiele z tych narzędzi pojawiło się jako innowacje technologiczne, a nie z metod naukowych lub programów badawczych. W rezultacie nie zawsze jest jasne, co oceniają, czy ich podstawowe hipotezy są prawidłowe lub dlaczego można oczekiwać, że będą przewidywać wyniki kandydatów do pracy. Na przykład fizyczne właściwości mowy i głosu ludzkiego — które od dawna są związane z elementami osobowości — zostały powiązane z indywidualnymi różnicami w wydajności pracy. Jeśli narzędzie wykazuje preferencje dla wzorców mowy, takich jak spójna kadencja głosowa lub wysokość dźwięku lub „przyjazny” ton głosu, które nie mają negatywnego wpływu na kandydatów do pracy w prawnie chronionej grupie, nie ma problemu prawnego; ale narzędzia te mogły nie być naukowo potwierdzone i dlatego nie kontrolują potencjalnego niekorzystnego wpływu dyskryminacyjnego — co oznacza, że pracodawca może ponieść odpowiedzialność za jakiekolwiek ślepe poleganie. Poza tym nie ma jeszcze przekonujących hipotez ani uzasadnionych wniosków na temat tego, czy etyczne byłoby przesiewanie ludzi w oparciu o ich głosy, które są fizjologicznie zdeterminowane, w dużej mierze niezmienne atrybuty osobiste.

podobnie aktywność w mediach społecznościowych — np. korzystanie z Facebooka lub Twittera-odzwierciedla inteligencję i osobowość ludzi, w tym ich ciemne strony. Ale czy etyczne jest wydobywanie tych danych do celów rekrutacyjnych, gdy użytkownicy będą Zwykle używali takich aplikacji do różnych celów i mogą nie wyrazić zgody na analizę danych w celu wyciągnięcia prywatnych wniosków z ich publicznych publikacji?

nowe technologie stosowane w kontekście zatrudniania budzą szereg nowych pytań etycznych i prawnych dotyczących prywatności, które naszym zdaniem powinny być publicznie dyskutowane i dyskutowane, a mianowicie:

1) Jakie pokusy będą napotykane przez firmy w zakresie prywatności kandydata w odniesieniu do atrybutów osobistych?

wraz z rozwojem technologii big data i AI będą nadal w stanie określać zmienne „proxy” dla prywatnych, osobistych atrybutów ze zwiększoną dokładnością. Dziś na przykład „Polubienia” Facebooka można wykorzystać do wnioskowania o orientacji seksualnej i wyścigu ze znaczną dokładnością. Przynależność polityczna i przekonania religijne są równie łatwe do zidentyfikowania. Czy firmy mogą ulec pokusie korzystania z takich narzędzi do sprawdzania kandydatów, wierząc, że ponieważ decyzje nie są podejmowane bezpośrednio w oparciu o chronione cechy, nie można ich prawnie zaskarżyć? Podczas gdy pracodawca nie może naruszać żadnych przepisów dotyczących jedynie rozpoznawania danych osobowych kandydata, firma może stać się podatna na ekspozycję prawną, jeśli podejmie niekorzystne decyzje o zatrudnieniu, opierając się na chronionych kategoriach, takich jak miejsce urodzenia, rasa lub język ojczysty — lub w oparciu o prywatne informacje, których nie ma prawa brać pod uwagę, takie jak możliwa choroba fizyczna lub dolegliwość psychiczna. Nie jest jasne, w jaki sposób sądy będą radzić sobie w sytuacjach, w których pracodawcy oparli się na narzędziach wykorzystujących te zmienne zastępcze; jednak faktem jest, że bezprawne jest podejmowanie niekorzystnych działań opartych na pewnych cechach chronionych lub prywatnych — bez względu na to, w jaki sposób zostały one poznane lub wywnioskowane.

może to również dotyczyć oprogramowania do rozpoznawania twarzy, ponieważ najnowsze badania przewidują, że sztuczna inteligencja może wkrótce być w stanie rozpoznać orientację seksualną i polityczną kandydatów, a także „stany wewnętrzne”, takie jak nastrój lub emocje, z dużą dokładnością. Jak może się zmienić zastosowanie ustawy o Amerykanach niepełnosprawnych? Ponadto Ustawa o ochronie wariografu pracowniczego ogólnie zabrania pracodawcom stosowania testów wykrywacza kłamstw jako narzędzia przesiewowego przed zatrudnieniem, a ustawa o ochronie informacji genetycznej zabrania pracodawcom wykorzystywania informacji genetycznej w decyzjach o zatrudnieniu. Co jednak, jeĹ „li dokĹ’ adnie taki sam rodzaj informacji o prawdzie, KĹ ’ amstwie, czy atrybutach genetycznych moĹĽna ustaliÄ ‡ za pomocÄ … powyĺľszych narzÄ ™ dzi technologicznych?

2) Jakie pokusy napotykają firmy w zakresie prywatności kandydatów związanych ze stylem życia i działalnością?

pracodawcy mogą teraz uzyskać dostęp do informacji, takich jak internetowe „zameldowanie” jednego kandydata do jej kościoła w każdą niedzielę rano, przegląd innego kandydata w zakładzie opieki nad demencją, w którym sprawdził swojego starszego rodzica, i pozew o rozwód trzeciego w sądzie cywilnym. Wszystkie te rzeczy i wiele innych można łatwo odkryć w erze cyfrowej. Big data podąża za nami wszędzie, gdzie jesteśmy online, zbierając i zbierając informacje, które można pokroić w kostkę za pomocą narzędzi, których jeszcze nie możemy sobie wyobrazić — narzędzi, które mogłyby ewentualnie poinformować przyszłych pracodawców o naszej przydatności (lub jej braku) dla niektórych ról. A big data będzie tylko coraz większy; według ekspertów, 90% danych na świecie zostało wygenerowanych tylko w ciągu ostatnich dwóch lat. Wraz z rozszerzeniem danych pojawia się potencjalna ekspansja nadużyć i wynikającej z nich dyskryminacji-celowej lub niezamierzonej.

w przeciwieństwie do UE, która zharmonizowała swoje podejście do prywatności zgodnie z Ogólnym Rozporządzeniem o ochronie danych (GDPR), USA opiera się na patchworkowym podejściu do prywatności kierowanym w dużej mierze przez prawo stanowe. W odniesieniu do mediów społecznościowych, w szczególności, państwa zaczęły wprowadzać przepisy już w 2012 roku, aby uniemożliwić pracodawcom żądanie haseł do osobistych kont internetowych jako warunku zatrudnienia. Ponad dwadzieścia państw wprowadziło tego typu przepisy, które mają zastosowanie do pracodawców. Jednakże, jeśli chodzi o ogólną prywatność przy korzystaniu z nowych technologii w miejscu pracy, istnieją mniej konkretne wytyczne lub działania. W szczególności w Kalifornii uchwalono przepisy, które potencjalnie ograniczą wykorzystanie przez pracodawców danych kandydatów lub pracowników. Ogólnie rzecz biorąc, sądy stanowe i federalne nie przyjęły jeszcze jednolitych ram analizy prywatności pracowników w odniesieniu do nowych technologii. Na wynos jest to, że przynajmniej na razie prywatność pracowników w dobie dużych zbiorów danych pozostaje nierozwiązana. Stawia to pracodawców w konflikcie, który wymaga ostrożności: Dostępna jest najnowocześniejsza technologia, która może być niezwykle przydatna. Ale to daje Ci informacje, które wcześniej były uważane za prywatne. Czy używanie w kontekście zatrudniania jest legalne? A czy rozważenie, czy kandydat nie wyraził zgody, jest etyczne?

3) Jakie pokusy napotykają firmy w zakresie prywatności kandydatów związanych z niepełnosprawnością?

Ustawa o Niepełnosprawnych Amerykanach stawia niepełnosprawność umysłową w swoim zakresie, obok niepełnosprawności fizycznej, i definiuje osobę jako niepełnosprawną, jeśli upośledzenie znacznie ogranicza poważną aktywność życiową, jeśli osoba ma zapis takiego upośledzenia lub jeśli osoba jest postrzegana jako taka upośledzenie. Jakieś dziesięć lat temu, USA Equal Employment Opportunity Commission (EEOC) wydała wytyczne, aby powiedzieć, że rozszerzająca się lista zaburzeń osobowości opisanych w literaturze psychiatrycznej może kwalifikować się jako upośledzenie umysłowe, a ustawa o zmianach ADA ułatwiła jednostce ustalenie, że ma niepełnosprawność w rozumieniu ADA. W rezultacie kategoria osób chronionych na podstawie ADA może teraz obejmować osoby, które mają poważne problemy z komunikacją w sytuacjach społecznych, osoby, które mają problemy z koncentracją lub osoby, które mają trudności z interakcją z innymi.

oprócz stawiania nowych pytań dotyczących niepełnosprawności, technologia przedstawia również nowe dylematy w odniesieniu do różnic, czy to demograficznych, czy innych. Istnieją już głośne sytuacje w prawdziwym życiu, w których systemy te ujawniły wyuczone uprzedzenia, zwłaszcza dotyczące rasy i płci. Amazon, na przykład, opracował zautomatyzowany program wyszukiwania talentów do przeglądania życiorysów — który został porzucony, gdy firma zdała sobie sprawę, że program nie oceniał kandydatów w sposób neutralny pod względem płci. Aby zmniejszyć takie uprzedzenia, Programiści równoważą dane używane do szkolenia modeli AI, aby odpowiednio reprezentować wszystkie grupy. Im więcej informacji posiada Technologia i może z niej czerpać / uczyć się, tym lepiej może kontrolować potencjalne uprzedzenia.

podsumowując, nowe technologie mogą już przekroczyć granice między atrybutami publicznymi i prywatnymi, „cechami” i „stanami” w nowy sposób i istnieją wszelkie powody, aby sądzić, że w przyszłości będą one coraz bardziej w stanie to robić. Korzystając z sztucznej inteligencji, dużych zbiorów danych, mediów społecznościowych i uczenia maszynowego, pracodawcy będą mieli coraz większy dostęp do prywatnego życia kandydatów, prywatnych atrybutów oraz prywatnych wyzwań i stanów umysłu. Nie ma łatwych odpowiedzi na wiele nowych pytań dotyczących prywatności, które tu poruszyliśmy, ale uważamy, że wszystkie one zasługują na publiczną dyskusję i debatę.

Leave a Reply

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany.