a digitális innovációk és a mesterséges intelligencia fejlődése számos új tehetség-azonosítási és értékelési eszközt hozott létre. Ezen technológiák közül sok azt ígéri, hogy segít a szervezeteknek javítani azon képességükön, hogy megtalálják a megfelelő embert a megfelelő munkára, és kiszűrjék a rossz embereket a rossz munkákra, gyorsabban és olcsóbban, mint valaha.
ezek az eszközök példátlan hatalmat adnak a szervezetek kezébe az adatalapú humántőke-döntések meghozatalához. A visszajelzések demokratizálására is képesek, így több millió álláskereső adatközpontú betekintést nyújt erősségeikbe, fejlesztési igényeikbe, valamint a lehetséges karrierbe és szervezeti illeszkedésbe. Különösen láttuk a gyors növekedést (és a megfelelő kockázatitőke-befektetést) a játékalapú értékelésekben, a közösségi média posztjainak lekaparására szolgáló botokban, a jelöltek írási mintáinak nyelvi elemzésében és a videó alapú interjúkban, amelyek algoritmusokat használnak a beszédtartalom elemzésére, hangszín, érzelmi állapotok, nonverbális viselkedés, és Temperamentumos nyomokat.
bár ezek az új eszközök megzavarják a toborzási és értékelési teret, sok még megválaszolatlan kérdést hagynak maguk után pontosságukkal, valamint az általuk bevezetett etikai, jogi és Adatvédelmi vonatkozásokkal kapcsolatban. Ez különösen igaz, ha összehasonlítjuk a több régóta pszichometriai értékelések, mint a NEO-PI-R, a Wonderlic teszt, a Ravens Progresszív Mátrixok teszt, vagy a Hogan személyiség leltár, amelyek tudományosan levezetett és gondosan validált vis-6-vis releváns munkahelyek, azonosító megbízható összefüggések a pályázók pontszámok és az azt követő munkateljesítmény (közzététele a bizonyítékok független, megbízható, tudományos folyóiratokban). Az utóbbi időben még az Egyesült Államokban is volt érdeklődés és aggodalom. Szenátus arról, hogy az új technológiák (konkrétan az arcelemzési technológiák) negatív következményekkel járhatnak-e az esélyegyenlőség szempontjából az állásjelöltek körében.
ebben a cikkben az új technológiáknak az állásjelöltek magánéletére gyakorolt lehetséges következményeire, valamint a fogyatékossággal élő amerikaiakról szóló törvény és más szövetségi és állami foglalkoztatási törvények értelmében a jelöltek védelmére gyakorolt hatásokra összpontosítunk. A munkáltatók elismerik, hogy nem kérdezhetik vagy nem szabad megkérdezniük a jelölteket családi állapotukról vagy politikai irányultságukról, vagy hogy terhesek-e, hetero, meleg, szomorú, magányos, depressziós, fizikailag vagy mentálisan beteg, túl sokat iszik, kábítószerrel visszaél, vagy túl keveset alszik. Az új technológiák azonban már képesek lehetnek ezeknek a tényezőknek a felismerésére közvetett módon, megfelelő (vagy akár bármilyen) beleegyezés nélkül.
mielőtt elmélyednénk az állásjelöltek értékelésének és értékelésének szép új világának jelenlegi kétértelműségeiben, érdemes egy pillantást vetni a múltra. A pszichometriai értékeléseket már több mint 100 éve használják, és egyre szélesebb körben használják az Egyesült Államok hadseregének Alfa hadseregének eredményeként, amely kategóriákba sorolta az újoncokat, és meghatározta annak valószínűségét, hogy különböző szerepekben sikeresek legyenek. Hagyományosan a pszichometria három nagy kategóriába sorolható: kognitív képesség vagy intelligencia, személyiség vagy temperamentum, valamint mentális egészség vagy klinikai diagnózis.
a fogyatékossággal élő amerikaiakról szóló törvény (Ada) 1990-es elfogadása óta a munkáltatóknak általában tilos a fizikai fogyatékosság, a mentális egészség vagy a klinikai diagnózis kérdése és/vagy használata a foglalkoztatás előtti jelöltértékelések tényezőjeként, és az ilyen vállalatokat beperelték és elítélték. Lényegében a fogyatékosság — akár fizikai, akár mentális — “magán” információnak minősül, amelyről a munkáltatók nem kérdezhetnek a foglalkoztatás előtti szakaszban, csakúgy, mint a munkáltatóknak nem szabad tolakodó kérdéseket feltenniük a pályázóknak a magánéletükről, és nem vehetik figyelembe a magán demográfiai információkat a felvételi döntések során.
a kognitív képességek és az intelligencia tesztelése megbízható és érvényes előrejelzője a munkahelyi sikernek a foglalkozások széles körében. Az ilyen típusú értékelések azonban diszkriminatívak lehetnek, ha hátrányosan érintenek bizonyos védett csoportokat, például azokat, amelyeket nem, faj, életkor vagy nemzeti származás határoz meg. Ha a munkáltató olyan értékelést alkalmaz, amelyről kiderült, hogy ilyen káros hatással jár, amelyet a különböző védett csoportok relatív pontszáma határoz meg, a munkáltatónak bizonyítania kell, hogy az értékelési módszertan munkával kapcsolatos, és előre jelzi a sikert az adott munkakörben.
a Személyiségértékelések kevésbé teszik ki a munkáltatókat a diszkrimináció esetleges felelősségének, mivel a személyiségjellemzők és a védett demográfiai változók vagy fogyatékosságok között alig vagy egyáltalán nincs összefüggés. Azt is meg kell jegyezni, hogy a személyiség és a munkahelyi teljesítmény közötti kapcsolat a kontextustól függ (pl.
sajnos sokkal kevesebb információ áll rendelkezésre a tehetségeszközök új generációjáról, amelyeket egyre inkább használnak a bérlet előtti értékelésben. Ezen eszközök közül sok technológiai újításként jelent meg, nem pedig tudományosan levezetett módszerekből vagy kutatási programokból. Ennek eredményeként nem mindig világos, hogy mit értékelnek, érvényesek-e mögöttes hipotéziseik, vagy miért várható el tőlük, hogy megjósolják az állásjelöltek teljesítményét. Például a beszéd és az emberi hang fizikai tulajdonságai-amelyek már régóta összefüggenek a személyiség elemeivel-összefüggésbe hozhatók az egyéni teljesítménybeli különbségekkel. Ha egy eszköz előnyben részesíti a beszédmintákat, például a következetes vokális ritmust vagy hangmagasságot, vagy egy “barátságos” hangszínt, amely nem gyakorol káros hatást a jogilag védett csoportba tartozó álláskeresőkre, akkor nincs jogi kérdés; de lehet, hogy ezeket az eszközöket nem tudományosan igazolták, és ezért nem ellenőrzik a lehetséges diszkriminatív káros hatásokat — vagyis a munkáltató felelősséget vállalhat bármilyen vak támaszkodásért. Ezenkívül még nincsenek meggyőző hipotézisek vagy védhető következtetések arról, hogy etikus lenne-e az embereket a hangjuk alapján kiszűrni, amelyek fiziológiailag meghatározottak, nagyrészt megváltoztathatatlan személyes tulajdonságok.
Hasonlóképpen, a közösségi média tevékenysége — például a Facebook vagy a Twitter használata-tükrözi az emberek intelligenciáját és személyiségét, beleértve a sötét oldal tulajdonságait is. De vajon etikus-e ezeket az adatokat bérbeadási célokra bányászni, amikor a felhasználók általában különböző célokra használják az ilyen alkalmazásokat, és esetleg nem adták beleegyezésüket az adatelemzéshez, hogy privát következtetéseket vonjanak le nyilvános hozzászólásaikból?
amikor a felvételi kontextusban használják, az új technológiák számos új etikai és jogi kérdést vetnek fel a magánélet védelmével kapcsolatban, amelyeket véleményünk szerint nyilvánosan meg kell vitatni, nevezetesen:
1) Milyen kísértésekkel szembesülnek a vállalatok a személyes tulajdonságokkal kapcsolatos jelölt magánélet tekintetében?
a technológia fejlődésével a big data és az AI továbbra is képes lesz meghatározni a “proxy” változókat A privát, személyes attribútumokhoz nagyobb pontossággal. Ma például a Facebook “Like” – jával jelentős pontossággal lehet következtetni a szexuális irányultságra és a versenyre. A politikai hovatartozás és a vallási meggyőződés ugyanolyan könnyen azonosítható. Lehet, hogy a vállalatok kísértésbe esnek, hogy ilyen eszközöket használjanak a jelöltek szűrésére, abban a hitben, hogy mivel a döntéseket nem közvetlenül a védett jellemzők alapján hozzák meg, jogilag nem támadhatók meg? Míg a munkáltató nem sérthet semmilyen törvényt pusztán a kérelmező személyes adatainak megismerésével, a vállalat kiszolgáltatottá válhat a jogi kitettségnek, ha hátrányos foglalkoztatási döntéseket hoz olyan védett kategóriákra támaszkodva, mint például a születési hely, faj, vagy anyanyelv — vagy olyan személyes információk alapján, amelyeket nem jogosult figyelembe venni, mint például lehetséges fizikai betegség vagy mentális betegség. Nem világos, hogy a bíróságok hogyan kezelik azokat a helyzeteket, amikor a munkáltatók ezekre a proxy változókra támaszkodtak; a tény azonban továbbra is az, hogy jogellenes bizonyos védett vagy magánjellegű jellemzők alapján hátrányos intézkedést hozni — függetlenül attól, hogy ezeket hogyan tanulták meg vagy kikövetkeztették.
ez vonatkozhat az arcfelismerő szoftverekre is, mivel a legújabb kutatások azt jósolják, hogy az arcolvasó AI hamarosan nagy pontossággal képes felismerni a jelöltek szexuális és politikai irányultságát, valamint a “belső állapotokat”, például a hangulatot vagy az érzelmeket. Hogyan változhat a fogyatékossággal élő amerikaiakról szóló törvény alkalmazása? Továbbá, az alkalmazottak poligráfos védelméről szóló törvény általában megtiltja a munkáltatóknak, hogy hazugságvizsgáló teszteket alkalmazzanak a foglalkoztatás előtti szűrési eszközként, a genetikai információk Megkülönböztetésmentességéről szóló törvény pedig megtiltja a munkáltatóknak, hogy genetikai információkat használjanak a foglalkoztatási döntésekben. De mi van, ha az igazságról, hazugságokról vagy genetikai tulajdonságokról pontosan ugyanolyan információkat lehet meghatározni a fent említett technológiai eszközökkel?
2) Milyen kísértésekkel néznek szembe a vállalatok az életmóddal és tevékenységekkel kapcsolatos jelöltek magánéletével kapcsolatban?
a munkáltatók most olyan információkhoz férhetnek hozzá, mint például az egyik jelölt online “bejelentkezése” a templomba minden vasárnap reggel, egy másik jelölt áttekintése a demencia gondozási intézményről, amelybe idős szülőjét ellenőrizte, és egy harmadik válóper polgári bíróságon. Ezek a dolgok, és még sok más, könnyen felfedezhetők a digitális korszakban. A Big data mindenhol követ minket, ahol online vagyunk, és olyan információkat gyűjtünk és gyűjtünk össze, amelyeket olyan eszközökkel lehet szeletelni és kockára tenni, amelyeket még el sem tudunk képzelni — olyan eszközöket, amelyek esetleg tájékoztathatják a jövőbeli munkáltatókat bizonyos szerepekre való alkalmasságunkról (vagy annak hiányáról). A big data pedig csak növekedni fog; szakértők szerint a világon az adatok 90% – a csak az elmúlt két évben keletkezett. Az adatok bővülésével együtt jár a visszaélések és az ebből eredő diszkrimináció — akár szándékos, akár nem szándékos-lehetséges kiterjesztése.
ellentétben az EU-val, amely az általános adatvédelmi rendelet (GDPR) alapján harmonizálta a magánélethez való hozzáállását, az Egyesült Államok a magánélet javarészt állami törvények által vezérelt patchwork megközelítésére támaszkodik. Ami a közösségi médiát illeti, az államok még 2012-ben kezdték el bevezetni a jogszabályokat, hogy megakadályozzák a munkáltatókat abban, hogy a foglalkoztatás feltételeként jelszavakat kérjenek a személyes internetes fiókokhoz. Több mint húsz állam hozott ilyen típusú törvényeket, amelyek a munkáltatókra vonatkoznak. Az új technológiák munkahelyi használatának általános magánéletét illetően azonban kevésbé volt konkrét iránymutatás vagy intézkedés. Különösen Kaliforniában olyan jogszabályokat fogadtak el, amelyek potenciálisan korlátozzák a munkáltatók jelölt-vagy munkavállalói adatainak felhasználását. Általánosságban elmondható, hogy az állami és szövetségi bíróságok még nem fogadtak el egységes keretet az alkalmazottak magánéletének elemzésére az új technológiákkal kapcsolatban. Az elvihető az, hogy legalább egyelőre, a nagy adatok korában a munkavállalók magánéletének rendezetlen marad. Ez ellentmondásos helyzetbe hozza a munkáltatókat, amely óvatosságra szólít fel: Élvonalbeli technológia áll rendelkezésre, amely rendkívül hasznos lehet. De ez olyan információkat ad, amelyeket korábban privátnak tekintettek. Legális-e a felvételi kontextusban használni? És etikus-e megfontolni, hogy a jelölt nem járult-e hozzá?
3) milyen kísértésekkel kell szembenézniük a vállalatoknak a fogyatékossággal kapcsolatos jelölt magánéletével kapcsolatban?
a fogyatékossággal élő amerikaiakról szóló törvény a szellemi fogyatékosságokat egyenesen a hatáskörébe helyezi, a testi fogyatékosságok mellett, és az egyént fogyatékosként határozza meg, ha a károsodás lényegesen korlátozza a fő élettevékenységet, ha a személynek nyilvántartása van ilyen károsodásról, vagy ha az illetőt ilyen károsodásnak tekintik. Körülbelül egy évtizeddel ezelőtt, az Egyesült Államokban. Az Equal Employment Opportunity Commission (EEOC) iránymutatást adott ki arról, hogy a pszichiátriai szakirodalomban leírt személyiségzavarok bővülő listája mentális károsodásnak minősülhet, és az ADA módosító törvénye megkönnyítette az egyén számára annak megállapítását, hogy az ADA értelmében fogyatékossággal rendelkezik. Ennek eredményeként az ADA által védett személyek kategóriájába tartozhatnak azok az emberek, akiknek jelentős problémái vannak a társadalmi helyzetekben való kommunikációval, olyan emberek, akiknek koncentrációs problémái vannak, vagy olyan emberek, akiknek nehézségeik vannak másokkal való kapcsolattartásban.
amellett, hogy új kérdéseket vet fel a fogyatékossággal kapcsolatban, a technológia új dilemmákat is felvet a demográfiai vagy egyéb különbségek tekintetében. Már voltak olyan nagy horderejű valós helyzetek, amikor ezek a rendszerek megtanult elfogultságokat tártak fel, különösen a fajra és a nemre vonatkozóan. Az Amazon például kifejlesztett egy automatizált tehetségkutató programot az önéletrajzok áttekintésére-amelyet felhagytak, miután a vállalat rájött, hogy a program nem nemi szempontból semleges módon minősíti a jelölteket. Az ilyen elfogultságok csökkentése érdekében a fejlesztők kiegyensúlyozzák az AI modellek képzéséhez használt adatokat, hogy megfelelően képviseljék az összes csoportot. Minél több információval rendelkezik a technológia, és képes elszámolni/tanulni belőle, annál jobban tudja ellenőrizni a lehetséges torzításokat.
összegzésképpen elmondható, hogy az új technológiák már új módon átléphetik a köz-és magánjellemzők, “tulajdonságok” és “állapotok” közötti határokat, és minden okunk megvan azt hinni, hogy a jövőben egyre inkább képesek lesznek erre. Az AI, a big data, a közösségi média és a gépi tanulás segítségével a munkáltatók egyre nagyobb hozzáférést kapnak a jelöltek magánéletéhez, magánjellemzőihez, valamint a privát kihívásokhoz és lelkiállapotokhoz. Az itt felvetett, a magánélet védelmével kapcsolatos új kérdésekre nincs könnyű válasz, de úgy gondoljuk, hogy ezek mind érdemesek a nyilvános vitára és vitára.