採用にAIを使用することの法的および倫理的な影響

デジタルの革新とAIの進歩により、さまざまな新しい人材の識別と評価ツールが生まれました。 これらの技術の多くは、組織が適切な仕事のために適切な人を見つける能力を向上させ、間違った仕事のために間違った人を選別するのを助けるこ

これらのツールは、データベースの人的資本の意思決定を追求するために、組織の手に前例のない力を与えました。 彼らはまた、フィードバックを民主化する可能性を秘めており、何百万人もの求職者に、自分の強み、開発ニーズ、潜在的なキャリアと組織の適合性に関す 特に、ゲームベースの評価、ソーシャルメディアの投稿を掻き取るためのボット、候補者の文章サンプルの言語分析、音声コンテンツ、声の調子、感情状態、非言語的行動、気質の手がかりを分析するためのアルゴリズムを利用したビデオベースのインタビューにおいて、急速な成長(およびそれに対応するベンチャーキャピタル投資)が見られています。

これらの新しいツールは採用と評価のスペースを混乱させていますが、彼らはその正確さ、そして彼らが導入する倫理的、法的、プライバシーへの影響につ これは、NEO-PI-R、Wonderlicテスト、Ravens Progressive Matricesテスト、Hogan Personality Inventoryなど、科学的に導出され、関連する仕事に対して慎重に検証されたより長年の心理測定評価と比較して、応募者のスコアとその後の仕事のパフォーマンスとの間の信頼できる関連性を特定した場合に特に当てはまります(独立した信頼できる学術雑誌に証拠を公開しています)。 最近では、米国にも関心と懸念がありました。 新技術(具体的には、顔分析技術)は、求職者の間で機会均等のための負の影響を持っている可能性があるかどうかについて上院。

この記事では、新しい技術が求職者のプライバシーに及ぼす潜在的な影響、ならびに障害を持つアメリカ人法およびその他の連邦および州の雇用法の下での求職者の保護への影響に焦点を当てている。 雇用者は、家族の状態や政治的方向性、または妊娠しているかどうか、ストレート、ゲイ、悲しい、孤独、落ち込んでいるかどうか、肉体的または精神的に病気、飲み過ぎ、薬物乱用、または睡眠が少なすぎるかどうかについて候補者に尋ねることができないか、またはすべきではないことを認識しています。 しかし、新しい技術は、これらの要因の多くを間接的に、適切な(または任意の)同意なしにすでに識別することができるかもしれません。

求職者の評価と評価の勇敢な新しい世界の現在のあいまいさを掘り下げる前に、過去を見てみると便利です。 心理測定評価は100年以上にわたって使用されており、アメリカ軍のArmy Alphaの結果としてより広く利用されるようになり、新兵をカテゴリに配置し、様々な役割で成功する可能性を決定した。 伝統的に、心理測定学は、認知能力または知性、人格または気質、および精神的健康または臨床診断の3つの広範なカテゴリに分類されました。

1990年のアメリカ障害者法(ADA)の採択以来、雇用主は一般的に、身体障害、精神的健康、または臨床診断についての問い合わせや使用を雇用前の候補者評価の 本質的には、身体的または精神的にかかわらず、障害は、雇用者が私生活についての侵入的な質問をするべきではなく、雇用決定において私的な人口

認知能力と知能テストは、さまざまな職業における仕事の成功の信頼性が高く有効な予測因子であることが判明しています。 しかし、これらの種類の評価は、性別、人種、年齢、国籍によって定義された特定の保護されたグループに悪影響を与える場合、差別的である可能性があります。 雇用者が異なる保護されたグループの相対的なスコアによって定義されるような悪影響を及ぼすことが判明した評価を利用している場合、雇用者は、評価方法論が仕事に関連しており、問題の特定の仕事の成功を予測していることを証明しなければならない。

人格評価は、人格特性と保護された人口統計学的変数または障害との間にほとんどまたはまったく相関がないため、雇用者に差別の責任を負う可能性が低い。 また、人格と仕事のパフォーマンスとの関係は、文脈(例えば、役割または仕事のタイプ)に依存することにも留意すべきである。

残念ながら、雇用前の評価でますます使用されている新世代の人材ツールに関する情報ははるかに少ない。 これらのツールの多くは、科学的に派生した方法や研究プログラムからではなく、技術革新として浮上しています。 その結果、彼らが何を評価するのか、その根底にある仮説が有効であるかどうか、またはなぜ求職者の業績を予測することが期待されるのかは常に明 例えば、長い間人格の要素に関連してきたスピーチと人間の声の物理的性質は、仕事のパフォーマンスの個人差に関連しています。 合法的に保護されたグループの求職者に悪影響を及ぼさない一貫した声のケイデンスやピッチ、または「優しい」声調などの音声パターンの好みをツールが示している場合、法的問題はありません。しかし、これらのツールは科学的に検証されていない可能性があり、したがって潜在的な差別的な悪影響を制御していない可能性があります。つまり、雇用者は盲目的な依存に対して責任を負う可能性があります。 さらに、生理学的に決定され、主に不変の個人的属性である彼らの声に基づいて人々を選別することが倫理的であるかどうかについての説得力のある

同様に、facebookやTwitterの使用などのソーシャルメディア活動は、ダークサイドの特性を含む人々の知性と性格を反映していることが判明しています。 しかし、ユーザーが一般的に異なる目的でそのようなアプリを使用し、公開投稿から私的な結論を引き出すためのデータ分析に同意していない可能性があ

採用の文脈で使用されると、新しい技術はプライバシーに関する新しい倫理的および法的な質問をいくつか提起します。

1)個人の属性に関す

技術の進歩に伴い、ビッグデータとAIは、私的、個人属性の「プロキシ」変数を精度良く決定することができるようになります。 今日、例えば、Facebookの”いいね”は、性的指向と人種をかなり正確に推測するために使用することができます。 政治的な所属と宗教的信念は、同じように簡単に識別できます。 企業は、保護された特性に基づいて決定が直接行われないため、法的に実行可能ではないと信じて、これらのツールを使用して候補者を選別するよう 雇用主は、単に応募者の個人情報を識別するだけで法律に違反することはできませんが、出生地、人種、母国語などの保護されたカテゴリーに依存したり、身体的な病気や精神的な病気など、考慮する権利がない個人情報に基づいて不利な雇用決定を下すと、法的露出に対して脆弱になる可能性があります。 雇用者がこれらのプロキシ変数を使用するツールに依存している状況を裁判所がどのように処理するかは不明です; しかし、実際には、特定の保護された特性または私的な特性に基づいて不利な行動を取ることは違法であるという事実は残っています。

これは顔認識ソフトウェアにも当てはまるかもしれませんが、最近の研究では、顔を読むAIはすぐに候補者の性的および政治的指向だけでなく、気分や感情のような「内的状態」を高い精度で識別できる可能性があると予測されています。 障害を持つアメリカ人法の適用はどのように変わるのでしょうか? さらに、従業員ポリグラフ保護法は、一般的に雇用者が雇用前のスクリーニングツールとして嘘発見器テストを使用することを禁止し、遺伝情報非差別法は、雇用者が雇用決定に遺伝情報を使用することを禁止している。 しかし、真実、嘘、または遺伝的属性に関するまったく同じ種類の情報が、上記の技術的ツールによって決定できる場合はどうなりますか?

2)ライフスタイルや活動に関するプライバシーの観点から、企業はどのような誘惑に直面するのでしょうか?

雇用主は、ある候補者が毎週日曜日の朝に彼女の教会にオンラインで”チェックイン”した情報、別の候補者が高齢の親をチェックした認知症ケア施設 これらのすべて、およびより多くのものは、デジタル時代に簡単に発見できます。 ビッグデータは、私たちがオンラインで行くどこにでも私たちをフォローし、私たちもまだ想像することはできませんツールによってスライスし、さいの目に切ったことができる情報を収集し、組み立てています—おそらく特定の役割のための私たちのフィットネス(またはその欠如)について将来の雇用者に知らせることができるツール。 専門家によると、世界のデータの90%は過去2年間だけで生成されました。 データの拡大に伴い、意図的または意図的でない誤用とその結果として生じる差別の可能性が拡大します。

一般データ保護規則(GDPR)の下でプライバシーへのアプローチを調和させてきたEUとは異なり、米国は主に州法によって駆動されるプライバシーへのパッチワークのアプローチに依存している。 ソーシャルメディアに関しては、具体的には、州は雇用の条件として、個人のインターネットアカウントにパスワードを要求するから雇用者を防ぐために、2012年に戻って法律を導入し始めました。 20以上の州は、雇用者に適用される法律のこれらのタイプを制定しています。 しかし、職場での新技術の使用における一般的なプライバシーの面では、あまり具体的な指導や行動がありませんでした。 特に、カリフォルニア州では、雇用者の候補者または従業員データの使用を制限する可能性のある法律が可決されています。 一般に、州および連邦裁判所は、新しい技術に関連する従業員のプライバシーを分析するための統一された枠組みをまだ採用していません。 持ち帰りは、少なくとも今のところ、ビッグデータの時代の従業員のプライバシーが不安定なままであるということです。 これは注意のために呼ぶ対立した位置に雇用者を置く: 非常に有用であるかもしれない最先端の技術は利用できる。 しかし、それはあなたに以前にプライベートと考えられていた情報を与えています。 雇用の文脈で使用することは合法ですか? そして、候補者が同意しなかったかどうかを検討することは倫理的ですか?

3)障害者のプライバシーの観点から、企業はどのような誘惑に直面するのでしょうか?

アメリカ障害者法は、身体障害と並んで精神障害を真正面からその範囲に置き、障害が主要な生活活動を実質的に制限している場合、その人がそのような障害の記録を持っている場合、またはその人がそのような障害を持っていると認識されている場合には、個人を障害者と定義している。 十年ほど前、米国は 雇用機会均等委員会(EEOC)は、精神医学文献に記載されている人格障害の拡大リストが精神障害としての資格があると言うガイダンスを発行し、ADA改正法は、個人がADAの意味の範囲内で障害を持っていることを容易に確立することを可能にした。 その結果、ADAの下で保護されている人々のカテゴリには、社会的状況でのコミュニケーションに重大な問題を抱えている人々、集中している問題を抱えている人々、または他の人との交流が困難な人々が含まれるようになりました。

障害に関する新たな疑問を提起することに加えて、技術は人口統計学的であろうとなかろうと、違いに関して新たなジレンマを提示する。 これらのシステムは、特に人種や性別に関連して、学習バイアスを明らかにしている高プロファイルの現実の状況がすでにありました。 Amazonは、例えば、履歴書をレビューするための自動化された人材検索プログラムを開発しました—これは、プログラムが性別に中立的な方法で候補者を格 このような偏りを減らすために、開発者はAIモデルのトレーニングに使用されるデータのバランスをとり、すべてのグループを適切に表現しています。 技術が持っており、説明/学ぶことができる情報が多いほど、潜在的なバイアスをよりよく制御できます。

結論として、新しい技術はすでに公共と民間の属性、”特性”と”状態”の間の線を新しい方法で越えることができ、将来的にはますますそうすることがで AI、ビッグデータ、ソーシャルメディア、機械学習を使用することで、雇用者は候補者の私生活、個人的な属性、個人的な課題や心の状態にますますアクセス 私たちがここで提起したプライバシーに関する新しい質問の多くには簡単な答えはありませんが、それらはすべて公開議論や議論に値すると信じて

Leave a Reply

コメントを残す

メールアドレスが公開されることはありません。