Tekoälyn käytön juridiset ja eettiset vaikutukset rekrytoinnissa

tekoälyn digitaaliset innovaatiot ja edistysaskeleet ovat tuottaneet joukon uusia lahjakkuuksien tunnistaminen-ja arviointityökaluja. Monet näistä teknologioista lupaavat auttaa organisaatioita parantamaan kykyään löytää oikea henkilö oikeaan työhön ja seulomaan väärät ihmiset vääriin töihin nopeammin ja halvemmalla kuin koskaan ennen.

nämä työkalut antavat ennennäkemättömän vallan organisaatioille tehdä tietoon perustuvia inhimillistä pääomaa koskevia päätöksiä. Heillä on myös mahdollisuus demokratisoida palautetta, antaa miljoonille työnhakijoille datalähtöistä tietoa heidän vahvuuksistaan, kehitystarpeistaan sekä mahdollisista ura-ja organisaatiokyvyistään. Erityisesti olemme nähneet nopean kasvun (ja vastaavat riskipääomasijoitukset) pelipohjaisissa arvioinneissa, sosiaalisen median postausten boteissa, ehdokkaiden kirjoitusnäytteiden kielellisessä analyysissä ja videopohjaisissa haastatteluissa, joissa käytetään algoritmeja puheen sisällön, äänensävyn, tunnetilojen, sanattoman käyttäytymisen ja temperamenttisten vihjeiden analysointiin.

vaikka nämä uudet työkalut häiritsevät rekrytointi-ja arviointitilaa, ne jättävät monia vielä vastaamattomia kysymyksiä niiden oikeellisuudesta sekä niiden tuomista eettisistä, oikeudellisista ja yksityisyyteen liittyvistä vaikutuksista. Tämä on erityisen totta verrattuna pitkäaikaisempiin psykometrisiin arviointeihin, kuten NEO-PI-R, Wonderlic Test, Ravens Progressive Matrices test tai Hogan Personality Inventory, jotka on tieteellisesti johdettu ja huolellisesti validoitu suhteessa asiaankuuluviin työpaikkoihin, tunnistamalla luotettavia yhteyksiä hakijoiden pisteiden ja heidän myöhemmän työsuorituksensa välillä (julkaisemalla todisteet riippumattomissa, luotettavissa, tieteellisissä lehdissä). Viime aikoina Yhdysvalloissa on ollut jopa kiinnostusta ja huolta. Senaatti siitä, onko uusilla teknologioilla (erityisesti kasvoanalyysiteknologioilla) kielteisiä vaikutuksia yhtäläisiin mahdollisuuksiin työnhakijoiden keskuudessa.

tässä artikkelissa keskitymme uusien teknologioiden mahdollisiin vaikutuksiin työnhakijoiden yksityisyyteen sekä vaikutuksiin ehdokkaiden suojeluun Amerikan Vammaislain ja muiden liittovaltion ja osavaltion työlakien nojalla. Työnantajat ymmärtävät, että he eivät voi tai heidän ei pitäisi kysyä ehdokkailta heidän perheasemastaan tai poliittisesta suuntautumisestaan tai ovatko he raskaana, hetero, homo, surullinen, yksinäinen, masentunut, fyysisesti tai henkisesti sairas, juo liikaa, käyttää huumeita tai nukkuu liian vähän. Uudet teknologiat voivat kuitenkin jo havaita monia näistä tekijöistä epäsuorasti ja ilman asianmukaista (tai edes minkäänlaista) suostumusta.

ennen kuin pureudumme työnhakijoiden arvioinnin ja arvioinnin Uljaan uuden maailman nykyisiin epäselvyyksiin, on hyödyllistä tarkastella menneisyyttä. Psykometriset arvioinnit ovat olleet käytössä reilusti yli 100 vuotta, ja niitä alettiin hyödyntää laajemmin Yhdysvaltain asevoimien ”Army Alpha” – järjestön myötä, joka sijoitti alokkaat kategorioihin ja määritti heidän todennäköisyytensä menestyä erilaisissa rooleissa. Perinteisesti psykometriikka jakautui kolmeen laajaan kategoriaan: kognitiivinen kyky tai älykkyys, persoonallisuus tai temperamentti sekä mielenterveys tai kliininen diagnoosi.

sen jälkeen, kun American with Disabilities Act (Ada) hyväksyttiin vuonna 1990, työnantajia on yleensä kielletty tiedustelemasta ja/tai käyttämästä fyysistä vammaisuutta, mielenterveyttä tai kliinistä diagnoosia tekijänä ennen työllistymistä, ja yrityksiä, jotka ovat tehneet niin, on haastettu oikeuteen ja sensuroitu. Pohjimmiltaan vammaisuus – olipa fyysinen tai henkinen-on määritetty olevan ”yksityistä” tietoa, jota työnantajat eivät voi tiedustella ennen työllistymistä, aivan kuten työnantajien ei pitäisi kysyä hakijoilta tunkeilevia kysymyksiä yksityiselämästään, eikä se voi ottaa yksityisiä demografisia tietoja huomioon palkkaamispäätöksissä.

kognitiivisten kykyjen ja älykkyyden testaaminen on todettu luotettavaksi ja päteväksi työn onnistumisen ennustajaksi monissa eri ammateissa. Tällaiset arvioinnit voivat kuitenkin olla syrjiviä, jos ne vaikuttavat haitallisesti tiettyihin suojeltuihin ryhmiin, kuten sukupuolen, rodun, iän tai kansallisen alkuperän perusteella määriteltyihin ryhmiin. Jos työnantaja käyttää arviota, jolla on todettu olevan tällainen haitallinen vaikutus ja joka määritellään eri suojaryhmien suhteellisten pisteiden perusteella, työnantajan on osoitettava, että arviointimenetelmä on työhön liittyvä ja ennakoi menestystä kyseisissä työtehtävissä.

Persoonallisuusarvioinnit eivät todennäköisesti altista työnantajia mahdolliselle syrjintävastuulle, koska persoonallisuuden ominaisuuksien ja suojattujen demografisten muuttujien tai vammaisten välillä ei ole juurikaan tai lainkaan korrelaatiota. On myös huomattava, että persoonallisuuden ja työsuorituksen välinen suhde riippuu kontekstista (esim.tehtävän tai työn tyyppi).

valitettavasti on paljon vähemmän tietoa uuden sukupolven talent-työkaluista, joita käytetään yhä enemmän palkkausta edeltävässä arvioinnissa. Monet näistä työkaluista ovat syntyneet teknologisina innovaatioina eivätkä tieteellisesti johdettuina menetelminä tai tutkimusohjelmina. Tämän vuoksi ei ole aina selvää, mitä he arvioivat, ovatko heidän taustalla olevat hypoteesinsa päteviä tai miksi heidän voidaan olettaa ennustavan työnhakijoiden suoriutumista. Esimerkiksi puheen ja ihmisäänen fyysiset ominaisuudet — jotka ovat jo pitkään liittyneet persoonallisuuden elementteihin — on yhdistetty yksilöllisiin eroihin työsuorituksessa. Jos työkalu osoittaa suosivansa puhetapoja, kuten johdonmukaista äänenkorkeutta tai sävelkorkeutta tai ”ystävällistä” äänensävyä, jolla ei ole haitallista vaikutusta oikeudellisesti suojatun ryhmän työnhakijoihin, ei ole oikeudellista ongelmaa; mutta näitä välineitä ei ehkä ole tieteellisesti validoitu, eivätkä ne siksi valvo mahdollisia syrjiviä haitallisia vaikutuksia — eli työnantaja voi joutua vastuuseen sokeasta luottamuksesta. Vielä ei ole myöskään olemassa vakuuttavia hypoteeseja tai puolustettavia johtopäätöksiä siitä, olisiko eettistä seuloa ihmiset heidän äänensä perusteella, jotka ovat fysiologisesti määräytyviä, pitkälti muuttumattomia henkilökohtaisia ominaisuuksia.

samoin sosiaalisen median toiminnan-esimerkiksi Facebook – tai Twitterinkäytön-on havaittu heijastavan ihmisten älykkyyttä ja persoonallisuutta, myös heidän pimeää puoltaan. Mutta onko eettistä louhia näitä tietoja vuokraustarkoituksiin, kun käyttäjät ovat yleensä käyttäneet tällaisia sovelluksia eri tarkoituksiin ja eivät ehkä ole antaneet suostumustaan tietojen analysointiin yksityisten johtopäätösten tekemiseksi julkisista julkaisuistaan?

kun uusia teknologioita käytetään työhönotossa, ne herättävät monia uusia eettisiä ja juridisia kysymyksiä yksityisyyden suojasta, joista meidän mielestämme pitäisi keskustella ja keskustella julkisesti, nimittäin:

1) Millaisia houkutuksia yritykset kohtaavat yksityisyysehdokkaiden yksityisyydessä liittyen henkilökohtaisiin ominaisuuksiin?

tekniikan kehittyessä big data ja tekoäly pystyvät edelleen määrittämään ”proxy” – muuttujia yksityisille, henkilökohtaisille attribuuteille entistä tarkemmalla tarkkuudella. Nykyään esimerkiksi Facebook – ”tykkäyksistä” voi päätellä seksuaalista suuntautumista ja kisaa huomattavan tarkasti. Poliittinen vakaumus ja uskonnollinen vakaumus ovat yhtä helposti tunnistettavissa. Saattaisivatko yritykset tuntea houkutusta käyttää tällaisia työkaluja ehdokkaiden seulomiseen, uskoen, että koska päätöksiä ei tehdä suoraan suojattujen ominaisuuksien perusteella, ne eivät ole laillisesti kannekelpoisia? Vaikka työnantaja ei saa rikkoa mitään lakeja vain erottaa hakijan henkilökohtaisia tietoja, yritys voi joutua alttiiksi oikeudelliselle altistumiselle, jos se tekee epäedullisia työsuhdepäätöksiä tukeutumalla suojattuihin ryhmiin, kuten henkilön Syntymäpaikka, rotu, tai äidinkieli — tai perustuu yksityisiin tietoihin, joita sillä ei ole oikeutta ottaa huomioon, kuten mahdollinen fyysinen sairaus tai psyykkinen sairaus. On epäselvää, miten tuomioistuimet käsittelevät tilanteita, joissa työnantajat ovat turvautuneet näitä välitysmuuttujia käyttäviin työkaluihin; tosiasia kuitenkin on, että on lainvastaista ryhtyä kielteisiin toimiin, jotka perustuvat tiettyihin suojeltuihin tai yksityisiin ominaisuuksiin — riippumatta siitä, miten ne on opittu tai päätelty.

tämä saattaa koskea myös kasvojentunnistusohjelmia, sillä tuore tutkimus ennustaa, että kasvoja lukeva tekoäly saattaa pian pystyä erottamaan hyvin tarkasti ehdokkaiden seksuaaliset ja poliittiset suuntaukset sekä ”sisäiset tilat”, kuten mielialan tai tunteen. Miten vammaislain soveltaminen voisi muuttua? Lisäksi työntekijöiden Valheenpaljastuslaki yleensä kieltää työnantajia käyttämästä valheenpaljastustestejä työsuhdetta edeltävänä seulontavälineenä ja geneettisen tiedon Syrjintäkieltolaki kieltää työnantajia käyttämästä geneettistä tietoa työsuhdepäätöksissä. Mutta entä jos edellä mainituilla teknisillä välineillä voidaan määrittää täsmälleen samanlaista tietoa totuudesta, valheista tai geneettisistä ominaisuuksista?

2) Millaisia houkutuksia yritykset kohtaavat elämäntapaan ja toimintaan liittyvässä ehdokasyksityisyydessä?

työnantajat voivat nyt saada tietoja, kuten yhden ehdokkaan joka sunnuntaiaamu ”sisäänkirjautumisen” kirkkoon verkossa, toisen ehdokkaan katsauksen dementian hoitolaitokseen, johon hän on tarkistanut iäkkään vanhempansa, ja kolmannen avioerohakemuksen siviilioikeudessa. Kaikki nämä ja monet muut asiat ovat helposti löydettävissä digitaalisena aikakautena. Big data Seuraa meitä kaikkialla, minne menemme verkossa ja kerää ja kokoaa tietoa, jota voidaan viipaloida ja kuutioida työkaluilla, joita emme voi edes kuvitella — työkaluilla, jotka voisivat mahdollisesti kertoa tuleville työnantajille sopivuudestamme (tai sen puutteesta) tiettyihin rooleihin. Ja big data tulee vain kasvamaan; asiantuntijoiden mukaan 90% maailman datasta on syntynyt pelkästään kahden viime vuoden aikana. Tiedon laajenemisen myötä tulee mahdollinen väärinkäytön ja siitä johtuvan syrjinnän lisääntyminen — joko tahallinen tai tahaton.

toisin kuin EU, joka on yhtenäistänyt lähestymistapansa yksityisyyteen yleisen tietosuoja-asetuksen (GDPR) nojalla, Yhdysvallat luottaa yksityisyyteen tilkkutäkkimäiseen lähestymistapaan, jota ohjaa pitkälti valtion lainsäädäntö. Erityisesti sosiaalisen median osalta valtiot alkoivat ottaa käyttöön lainsäädäntöä jo vuonna 2012 estääkseen työnantajia pyytämästä salasanoja henkilökohtaisille internet-tileille työsuhteen ehtona. Yli kaksikymmentä osavaltiota on säätänyt tämäntyyppisiä lakeja, jotka koskevat työnantajia. Yleisen yksityisyyden kannalta uusien teknologioiden käytössä työpaikoilla on kuitenkin ollut vähemmän erityistä ohjeistusta tai toimintaa. Erityisesti Kaliforniassa on hyväksytty lainsäädäntöä, joka mahdollisesti rajoittaa työnantajien hakija-tai työntekijätietojen käyttöä. Yleensä osavaltion ja liittovaltion tuomioistuimet eivät ole vielä hyväksyneet yhtenäistä kehystä työntekijöiden yksityisyyden analysointiin liittyen uuteen teknologiaan. Takeaway on, että ainakin toistaiseksi työntekijöiden Yksityisyys big datan aikakaudella on edelleen epävarmaa. Tämä asettaa työnantajat ristiriitaiseen asemaan, joka vaatii varovaisuutta: Saatavilla on huipputeknologiaa, joka voi olla erittäin hyödyllistä. Mutta se antaa tietoa, jota on aiemmin pidetty yksityisenä. Onko laillista käyttää palkkauskontekstissa? Ja onko eettistä harkita, jos ehdokas ei suostunut?

3)millaisia houkutuksia yritykset kohtaavat vammaisten henkilöiden yksityisyydessä?

Amerikan vammaislaki asettaa kehitysvammaisuuden suoraan sen vastuualueeseen fyysisen vamman ohella ja määrittelee henkilön vammaiseksi, jos vamma rajoittaa merkittävästi merkittävää elämäntoimintaa, jos henkilöllä on merkintä tällaisesta vammasta tai jos henkilöllä koetaan olevan tällainen vamma. Noin vuosikymmen sitten Yhdysvalloissa. Equal Employment Opportunity Commission (EEOC) antoi ohjeita, joiden mukaan psykiatrisessa kirjallisuudessa kuvattu persoonallisuushäiriöiden laajeneva luettelo voisi olla mielenterveyshäiriöitä, ja ADA: n Muutoslaki helpotti yksilön todentaa, että hänellä on ADA: ssa tarkoitettu vamma. Tämän seurauksena ADA: n suojaamiin henkilöihin voi nyt kuulua ihmisiä, joilla on merkittäviä ongelmia kommunikoida sosiaalisissa tilanteissa, ihmisiä, joilla on ongelmia keskittymisessä tai ihmisiä, joilla on vaikeuksia vuorovaikutuksessa muiden kanssa.

sen lisäksi, että teknologia herättää uusia kysymyksiä vammaisuudesta, se tuo esiin myös uusia ongelmia, jotka liittyvät eroihin, olivatpa ne sitten demografisia tai muita. On jo ollut korkean profiilin tosielämän tilanteita, joissa nämä järjestelmät ovat paljastaneet opittuja harhoja, jotka liittyvät erityisesti rotuun ja sukupuoleen. Amazon esimerkiksi kehitti automaattisen kykyjenetsintäohjelman ansioluetteloiden tarkistamiseksi-mistä luovuttiin, kun yhtiö tajusi, ettei ohjelma luokittele ehdokkaita sukupuolineutraalisti. Tällaisten harhojen vähentämiseksi Kehittäjät tasapainottavat TEKOÄLYMALLIEN koulutuksessa käytettävää dataa edustaakseen asianmukaisesti kaikkia ryhmiä. Mitä enemmän tietoa tekniikka on ja voi selittää/oppia, sitä paremmin se voi hallita mahdollisia bias.

yhteenvetona voidaan todeta, että uudet teknologiat voivat jo ylittää julkisten ja yksityisten ominaisuuksien, ”ominaisuuksien” ja ”valtioiden” väliset rajat uusilla tavoilla, ja on täysi syy uskoa, että tulevaisuudessa ne pystyvät siihen yhä enemmän. Tekoälyn, big datan, sosiaalisen median ja koneoppimisen avulla työnantajat pääsevät entistä paremmin käsiksi ehdokkaiden yksityiselämään, yksityisiin ominaisuuksiin sekä yksityisiin haasteisiin ja mielentiloihin. Moniin täällä esiin nostamiimme uusiin yksityisyyden suojaa koskeviin kysymyksiin ei ole helppoja vastauksia, mutta uskomme, että ne kaikki ovat julkisen keskustelun ja keskustelun arvoisia.

Leave a Reply

Vastaa

Sähköpostiosoitettasi ei julkaista.