digitální inovace a pokroky v AI vytvořily řadu nových nástrojů pro identifikaci a hodnocení talentů. Mnoho z těchto technologií slibuje, že pomůže organizacím zlepšit jejich schopnost najít správnou osobu pro správnou práci, a vyloučit špatné lidi za špatné zaměstnání, rychleji a levněji než kdykoli předtím.
tyto nástroje dávají bezprecedentní moc do rukou organizací, aby prováděly rozhodnutí o lidském kapitálu založená na datech. Mají také potenciál demokratizovat zpětnou vazbu, dávat milionům uchazečů o zaměstnání údaje o jejich silných stránkách, rozvojové potřeby, a potenciální kariérní a organizační kondice. Zejména jsme zaznamenali rychlý růst (a odpovídající investice rizikového kapitálu) v hodnoceních založených na hrách, botech pro škrábání příspěvků na sociálních médiích, jazykové analýze vzorků psaní kandidátů a rozhovorech založených na videu, které využívají algoritmy k analýze obsahu řeči, tónu hlasu, emočních stavů, neverbálního chování a temperamentních vodítek.
i když tyto nové nástroje narušují prostor pro nábor a hodnocení, zanechávají mnoho dosud nezodpovězených otázek o jejich přesnosti a etických, právních a soukromých důsledcích, které zavádějí. To platí zejména ve srovnání s dlouhodobějšími psychometrickými hodnoceními, jako je NEO-PI-R, Wonderlic Test, Ravens Progressive Matrix test nebo Hogan Personality Inventory, které byly vědecky odvozeny a pečlivě ověřeny ve vztahu k relevantním pracovním místům, identifikace spolehlivých souvislostí mezi skóre žadatelů a jejich následným výkonem práce (publikování důkazů v nezávislých, důvěryhodných vědeckých časopisech). V poslední době byl dokonce zájem a zájem v USA. Senát o tom, zda nové technologie (konkrétně technologie analýzy obličeje) mohou mít negativní důsledky pro rovné příležitosti mezi uchazeči o zaměstnání.
v tomto článku se zaměřujeme na možné dopady nových technologií na soukromí uchazečů o zaměstnání, jakož i důsledky pro ochranu kandidátů podle zákona o Američanech se zdravotním postižením a dalších federálních a státních zákonů o zaměstnanosti. Zaměstnavatelé si uvědomují, že nemohou nebo by se neměli ptát kandidátů na jejich rodinný stav nebo politickou orientaci, nebo zda jsou těhotné, rovný, gay, smutný, osamělý, depresivní, fyzicky nebo duševně nemocní, příliš mnoho pití, zneužívání drog nebo příliš málo spánku. Nové technologie však již mohou být schopny rozeznat mnoho z těchto faktorů nepřímo a bez řádného (nebo dokonce jakéhokoli) souhlasu.
než se ponoříte do současných nejednoznačností odvážného nového světa hodnocení a hodnocení uchazečů o zaměstnání, je užitečné se podívat na minulost. Psychometrická hodnocení se používají již více než 100 let a staly se široce využívanými v důsledku armády armády Spojených států Alpha, která umístila rekruty do kategorií a určila jejich pravděpodobnost úspěchu v různých rolích. Tradičně, psychometrie spadala do tří širokých kategorií: kognitivní schopnosti nebo inteligence, osobnost nebo temperament, a duševní zdraví nebo klinická diagnóza.
od přijetí zákona o Američanech se zdravotním postižením (ADA) v roce 1990 je zaměstnavatelům obecně zakázáno dotazovat se a/nebo používat tělesné postižení, duševní zdraví nebo klinickou diagnózu jako faktor při hodnocení kandidátů před zaměstnáním a společnosti, které tak učinily, byly žalovány a odsouzeny. V podstatě, postižení-ať už fyzické nebo duševní — byla stanovena jako „soukromá“ informace, na které se zaměstnavatelé nemohou ptát ve fázi před zaměstnáním, stejně jako by zaměstnavatelé neměli klást žadatelům rušivé otázky o svém soukromém životě, a nemohou při rozhodování o náboru zohlednit soukromé demografické informace.
bylo zjištěno, že kognitivní schopnosti a testování inteligence jsou spolehlivým a platným prediktorem úspěchu v zaměstnání v široké škále povolání. Tyto druhy hodnocení však mohou být diskriminační, pokud mají nepříznivý dopad na určité chráněné skupiny, jako jsou skupiny definované podle pohlaví, rasy, věku nebo národního původu. Pokud zaměstnavatel využívá hodnocení, u kterého bylo zjištěno, že má takový nepříznivý dopad, který je definován relativním skóre různých chráněných skupin, musí zaměstnavatel prokázat, že metodika hodnocení souvisí s prací a predikuje úspěch v daných konkrétních zaměstnáních.
hodnocení osobnosti je méně pravděpodobné, že vystaví zaměstnavatele možné odpovědnosti za diskriminaci, protože existuje malá nebo žádná korelace mezi osobnostními charakteristikami a chráněnými demografickými proměnnými nebo postižením. Je třeba také poznamenat, že vztah mezi osobností a výkonem práce závisí na kontextu (např.
bohužel existuje mnohem méně informací o nové generaci talentových nástrojů, které se stále častěji používají při hodnocení před pronájmem. Mnoho z těchto nástrojů se ukázalo jako technologické inovace, spíše než z vědecky odvozených metod nebo výzkumných programů. V důsledku toho není vždy jasné, co hodnotí, zda jsou jejich základní hypotézy platné, nebo proč lze očekávat, že předpovídají výkon uchazečů o zaměstnání. Například fyzikální vlastnosti řeči a lidského hlasu — které jsou již dlouho spojeny s prvky osobnosti — byly spojeny s individuálními rozdíly ve výkonu práce. Pokud nástroj preferuje řečové vzorce, jako je konzistentní hlasová kadence nebo hřiště nebo „přátelský“ tón hlasu, který nemá nepříznivý dopad na uchazeče o zaměstnání v právně chráněné skupině, pak neexistuje žádný právní problém; tyto nástroje však nemusí být vědecky ověřeny, a proto nekontrolují potenciální diskriminační nepříznivý dopad — což znamená, že zaměstnavatel může nést odpovědnost za jakoukoli slepou závislost. Kromě toho zatím neexistují přesvědčivé hypotézy ani obhajitelné závěry o tom, zda by bylo etické vylučovat lidi na základě jejich hlasů, které jsou fyziologicky určeny, do značné míry neměnné osobní atributy.
podobně bylo zjištěno, že aktivita sociálních médií — např. Facebook nebo Twitter — odráží inteligenci a osobnost lidí, včetně jejich temných vedlejších rysů. Je však etické těžit tato data pro účely pronájmu, když uživatelé budou tyto aplikace obecně používat pro různé účely a nemusí poskytnout svůj souhlas s analýzou dat k vyvození soukromých závěrů ze svých veřejných příspěvků?
při použití v kontextu náboru nové technologie vyvolávají řadu nových etických a právních otázek týkajících se soukromí, o kterých si myslíme, že by měly být veřejně diskutovány a diskutovány, a to:
1) Jaké pokušení budou společnosti čelit z hlediska soukromí kandidátů týkajících se osobních atributů?
jak technologie postupuje, big data a AI budou i nadále schopni určit proměnné „proxy“ pro soukromé, osobní atributy se zvýšenou přesností. Dnes lze například Facebook „lajky“ použít k odvození sexuální orientace a závodu se značnou přesností. Politická příslušnost a náboženské přesvědčení jsou stejně snadno identifikovatelné. Mohly by společnosti být v pokušení používat nástroje, jako jsou tyto, k prověřování kandidátů, věřit, že protože rozhodnutí nejsou přijímána přímo na základě chráněných charakteristik, že nejsou právně žalovatelná? Zatímco zaměstnavatel nesmí porušovat žádné zákony pouze při rozlišování osobních údajů žadatele, společnost se může stát zranitelnou vůči právní expozici, pokud učiní nepříznivá rozhodnutí o zaměstnání tím, že se spoléhá na jakékoli chráněné kategorie, jako je místo narození, rasa nebo rodný jazyk — nebo na základě soukromých informací, které nemá právo zvážit, jako je možné fyzické onemocnění nebo duševní onemocnění. Jak budou soudy řešit situace, kdy se zaměstnavatelé spoléhali na nástroje používající tyto proměnné proxy, není jasné; faktem však zůstává, že je nezákonné podniknout nepříznivé kroky založené na určitých chráněných nebo soukromých charakteristikách — bez ohledu na to, jak byly zjištěny nebo odvozeny.
to se může vztahovat i na software pro rozpoznávání obličeje, protože nedávný výzkum předpovídá, že AI pro čtení obličeje může brzy rozpoznat sexuální a politickou orientaci kandidátů a „vnitřní stavy“, jako je nálada nebo emoce, s vysokou mírou přesnosti. Jak by se mohla změnit aplikace zákona o Američanech se zdravotním postižením? Dodatečně, zákon o ochraně polygrafu zaměstnanců obecně zakazuje zaměstnavatelům používat testy detektoru lži jako nástroj pro screening před zaměstnáním a zákon o nediskriminaci genetických informací zakazuje zaměstnavatelům používat genetické informace při rozhodování o zaměstnání. Ale co když přesně stejný druh informací o pravdě, lži, nebo genetické atributy mohou být určeny výše uvedenými technologickými nástroji?
2) Jaké pokušení budou společnosti čelit z hlediska soukromí kandidátů v souvislosti s životním stylem a aktivitami?
zaměstnavatelé nyní mohou přistupovat k informacím, jako je online „check in“ jednoho kandidáta do jejího kostela každou neděli ráno, kontrola jiného kandidáta na zařízení pro péči o demenci, do kterého zkontroloval svého staršího rodiče, a podání třetího rozvodu u civilního soudu. Všechny tyto věci, a mnoho dalších, jsou snadno objevitelné v digitální éře. Big data nás sledují všude, kam jdeme online a sbíráme a shromažďujeme informace, které lze krájet a nakrájet pomocí nástrojů, které si zatím ani nedokážeme představit — nástrojů, které by mohly budoucí zaměstnavatele informovat o naší způsobilosti (nebo jejich nedostatku) pro určité role. A velká data se jen zvětší; podle odborníků bylo 90% dat na světě vygenerováno jen za poslední dva roky. S rozšiřováním dat přichází potenciální rozšíření zneužití a výsledné diskriminace-ať už úmyslné nebo neúmyslné.
na rozdíl od EU, která harmonizovala svůj přístup k ochraně osobních údajů podle obecného nařízení o ochraně osobních údajů (GDPR), se USA spoléhají na patchwork přístup k ochraně osobních údajů řízený převážně státním právem. Pokud jde o sociální média, konkrétně státy začaly zavádět právní předpisy již v roce 2012, aby zabránily zaměstnavatelům požadovat hesla k osobním internetovým účtům jako podmínku zaměstnání. Více než dvacet států přijalo tyto typy zákonů, které se vztahují na zaměstnavatele. Z hlediska obecného soukromí při používání nových technologií na pracovišti však došlo k méně konkrétním pokynům nebo opatřením. Zejména, v Kalifornii byla přijata legislativa, která potenciálně omezí používání údajů o kandidátech nebo zaměstnancích zaměstnavateli. Obecně platí, že státní a federální soudy dosud nepřijaly jednotný rámec pro analýzu soukromí zaměstnanců v souvislosti s novými technologiemi. S sebou je, že alespoň prozatím zůstává soukromí zaměstnanců ve věku velkých dat nevyrovnané. To staví zaměstnavatele do konfliktního postavení, které vyžaduje opatrnost: K dispozici je špičková technologie, která může být velmi užitečná. Ale dává vám informace, které byly dříve považovány za soukromé. Je legální používat v kontextu náboru? A je etické zvážit, zda kandidát nesouhlasil?
3) Jaké pokušení budou společnosti čelit z hlediska soukromí kandidátů v souvislosti se zdravotním postižením?
zákon o Američanech se zdravotním postižením staví duševní postižení přímo do své působnosti, vedle fyzického postižení, a definuje jednotlivce jako zdravotně postiženého, pokud poškození podstatně omezuje významnou životní aktivitu, pokud má osoba záznam o takovém poškození, nebo pokud je osoba vnímána jako taková porucha. Asi před deseti lety USA Komise pro rovné pracovní příležitosti (EEOC) vydala pokyny, které uvádějí, že rozšiřující se seznam poruch osobnosti popsaných v psychiatrické literatuře by se mohl kvalifikovat jako mentální postižení a zákon o změnách ADA usnadnil jednotlivci prokázat, že má zdravotní postižení ve smyslu ADA. Jako výsledek, kategorie osob chráněných podle ADA může nyní zahrnovat lidi, kteří mají závažné problémy s komunikací v sociálních situacích, lidé, kteří mají problémy se soustředěním, nebo lidé, kteří mají potíže s interakcí s ostatními.
kromě vyvolávání nových otázek týkajících se postižení představuje technologie také nová dilemata s ohledem na rozdíly, ať už demografické nebo jiné. Již došlo k vysoce postaveným situacím v reálném životě, kdy tyto systémy odhalily naučené předsudky, zejména pokud jde o rasu a pohlaví. Amazon, například, vyvinul automatizovaný program vyhledávání talentů pro kontrolu životopisů — který byl opuštěn, jakmile si společnost uvědomila, že program nehodnotí kandidáty genderově neutrálním způsobem. Aby se tyto předsudky snížily, vývojáři vyvažují data použitá pro školení modelů AI, aby vhodně reprezentovali všechny skupiny. Čím více informací má technologie a může se od ní učit,tím lépe může kontrolovat potenciální zkreslení.
Závěrem lze říci, že nové technologie již mohou překračovat hranice mezi veřejnými a soukromými atributy, „rysy“ a „státy“ novými způsoby, a existuje důvod se domnívat, že v budoucnu budou stále více schopni tak učinit. Pomocí AI, velkých dat, sociálních médií a strojového učení budou mít zaměstnavatelé stále větší přístup k soukromému životu kandidátů, soukromým atributům a soukromým výzvám a stavům mysli. Na mnoho nových otázek týkajících se soukromí, které jsme zde vznesli, neexistují jednoduché odpovědi, ale věříme, že jsou všechny hodné veřejné diskuse a debaty.