Die rechtlichen und ethischen Auswirkungen des Einsatzes von KI bei der Einstellung

Digitale Innovationen und Fortschritte in der KI haben eine Reihe neuartiger Tools zur Identifizierung und Bewertung von Talenten hervorgebracht. Viele dieser Technologien versprechen Unternehmen zu helfen, ihre Fähigkeit zu verbessern, die richtige Person für den richtigen Job zu finden, und die falschen Leute für die falschen Jobs auszusortieren, schneller und billiger als je zuvor.

Diese Tools geben Organisationen beispiellose Macht, um datenbasierte Humankapitalentscheidungen zu treffen. Sie haben auch das Potenzial, Feedback zu demokratisieren und Millionen von Bewerbern datengesteuerte Einblicke in ihre Stärken, Entwicklungsbedürfnisse und potenzielle berufliche und organisatorische Passung zu geben. Insbesondere haben wir das schnelle Wachstum (und die entsprechenden Risikokapitalinvestitionen) bei spielbasierten Bewertungen, Bots zum Scraping von Social-Media-Postings, sprachlichen Analysen der Schreibmuster von Kandidaten und videobasierten Interviews gesehen, die Algorithmen zur Analyse von Sprachinhalten, Tonfall, emotionalen Zuständen, nonverbalem Verhalten und temperamentvollen Hinweisen verwenden.

Während diese neuartigen Tools den Rekrutierungs- und Bewertungsraum stören, lassen sie viele noch unbeantwortete Fragen zu ihrer Genauigkeit und den ethischen, rechtlichen und datenschutzrechtlichen Auswirkungen, die sie mit sich bringen. Dies gilt insbesondere im Vergleich zu langjährigen psychometrischen Beurteilungen wie dem NEO-PI-R, dem Wonderlic-Test, dem Ravens Progressive Matrices-Test oder dem Hogan Personality Inventory, die wissenschaftlich abgeleitet und sorgfältig validiert wurden vis-à-vis relevante Jobs, Identifizierung zuverlässiger Zusammenhänge zwischen den Ergebnissen der Bewerber und ihrer späteren Arbeitsleistung (Veröffentlichung der Beweise in unabhängigen, vertrauenswürdigen, wissenschaftlichen Zeitschriften). In letzter Zeit gab es sogar Interesse und Besorgnis in den USA. Diskussion darüber, ob neue Technologien (insbesondere Gesichtsanalysetechnologien) negative Auswirkungen auf die Chancengleichheit von Bewerbern haben könnten.

In diesem Artikel konzentrieren wir uns auf die möglichen Auswirkungen neuer Technologien auf die Privatsphäre von Bewerbern sowie auf die Auswirkungen auf den Schutz von Bewerbern gemäß dem Americans with Disabilities Act und anderen Bundes- und Landesarbeitsgesetzen. Arbeitgeber erkennen an, dass sie Kandidaten nicht nach ihrem Familienstand oder ihrer politischen Orientierung fragen können oder sollten, oder ob sie schwanger, hetero, schwul, traurig, einsam, depressiv, körperlich oder geistig krank sind, zu viel trinken, Drogen missbrauchen oder zu wenig schlafen. Neue Technologien sind jedoch möglicherweise bereits in der Lage, viele dieser Faktoren indirekt und ohne angemessene (oder gar keine) Zustimmung zu erkennen.

Bevor wir uns mit den aktuellen Unklarheiten der schönen neuen Welt der Bewerberbewertung und -bewertung befassen, ist es hilfreich, einen Blick in die Vergangenheit zu werfen. Psychometrische Bewertungen sind seit weit über 100 Jahren im Einsatz und wurden aufgrund des Army Alpha des US-Militärs, das Rekruten in Kategorien einteilte und ihre Wahrscheinlichkeit, in verschiedenen Rollen erfolgreich zu sein, bestimmte, weiter verbreitet. Traditionell fiel die Psychometrie in drei große Kategorien: kognitive Fähigkeiten oder Intelligenz, Persönlichkeit oder Temperament und psychische Gesundheit oder klinische Diagnose.

Seit der Verabschiedung des Americans with Disabilities Act (ADA) im Jahr 1990 ist es Arbeitgebern generell untersagt, sich nach körperlichen Behinderungen, geistiger Gesundheit oder klinischer Diagnose zu erkundigen und / oder diese als Faktor für die Beurteilung von Bewerbern vor der Einstellung zu verwenden, und Unternehmen, die dies getan haben, wurden verklagt und zensiert. Im Wesentlichen wurden Behinderungen – ob körperlich oder geistig — als „private“ Informationen eingestuft, nach denen sich Arbeitgeber in der Phase vor der Beschäftigung nicht erkundigen können, ebenso wie Arbeitgeber den Bewerbern keine aufdringlichen Fragen zu ihrem Privatleben stellen sollten und private demografische Informationen bei Einstellungsentscheidungen nicht berücksichtigen können.

Kognitive Fähigkeits- und Intelligenztests haben sich als zuverlässiger und valider Prädiktor für den beruflichen Erfolg in einer Vielzahl von Berufen erwiesen. Diese Art von Bewertungen kann jedoch diskriminierend sein, wenn sie sich nachteilig auf bestimmte geschützte Gruppen auswirken, z. B. solche, die nach Geschlecht, Rasse, Alter oder nationaler Herkunft definiert sind. Wenn ein Arbeitgeber eine Bewertung verwendet, bei der festgestellt wurde, dass sie solche nachteiligen Auswirkungen hat, die durch die relativen Punktzahlen verschiedener geschützter Gruppen definiert werden, muss der Arbeitgeber nachweisen, dass die Bewertungsmethode berufsbezogen ist und den Erfolg in den betreffenden spezifischen Berufen vorhersagt.

Persönlichkeitsbewertungen sind weniger wahrscheinlich, dass Arbeitgeber einer möglichen Haftung für Diskriminierung ausgesetzt sind, da es wenig bis gar keine Korrelation zwischen Persönlichkeitsmerkmalen und geschützten demografischen Variablen oder Behinderungen gibt. Es sollte auch beachtet werden, dass die Beziehung zwischen Persönlichkeit und Arbeitsleistung vom Kontext abhängt (z. B. Art der Rolle oder des Jobs).

Leider gibt es weit weniger Informationen über die neue Generation von Talent-Tools, die zunehmend in der Pre-Hire-Bewertung verwendet werden. Viele dieser Werkzeuge sind als technologische Innovationen entstanden und nicht aus wissenschaftlich abgeleiteten Methoden oder Forschungsprogrammen. Infolgedessen ist nicht immer klar, was sie beurteilen, ob ihre zugrunde liegenden Hypothesen gültig sind oder warum von ihnen erwartet werden kann, dass sie die Leistung der Bewerber vorhersagen. Zum Beispiel wurden physikalische Eigenschaften der Sprache und der menschlichen Stimme — die seit langem mit Persönlichkeitselementen in Verbindung gebracht werden — mit individuellen Unterschieden in der Arbeitsleistung in Verbindung gebracht. Wenn ein Tool eine Präferenz für Sprachmuster wie konsistente Stimmkadenz oder Tonhöhe oder einen „freundlichen“ Tonfall zeigt, die keine nachteiligen Auswirkungen auf Bewerber in einer gesetzlich geschützten Gruppe haben, dann gibt es kein rechtliches Problem; Diese Tools wurden jedoch möglicherweise nicht wissenschaftlich validiert und kontrollieren daher nicht die potenziellen diskriminierenden nachteiligen Auswirkungen — was bedeutet, dass der Arbeitgeber für blindes Vertrauen haftbar gemacht werden kann. Darüber hinaus gibt es noch keine überzeugenden Hypothesen oder vertretbaren Schlussfolgerungen darüber, ob es ethisch vertretbar wäre, Menschen anhand ihrer Stimmen auszusortieren, die physiologisch bedingte, weitgehend unveränderliche persönliche Eigenschaften sind.

Ebenso wurde festgestellt, dass die Aktivität in sozialen Medien — z. B. die Nutzung von Facebook oder Twitter — die Intelligenz und Persönlichkeit der Menschen widerspiegelt, einschließlich ihrer dunklen Seitenmerkmale. Aber ist es ethisch vertretbar, diese Daten für Einstellungszwecke abzubauen, wenn Benutzer solche Apps im Allgemeinen für verschiedene Zwecke verwendet haben und möglicherweise nicht ihre Zustimmung zur Datenanalyse gegeben haben, um private Rückschlüsse aus ihren öffentlichen Postings zu ziehen?

Wenn neue Technologien im Einstellungskontext eingesetzt werden, werfen sie eine Reihe neuer ethischer und rechtlicher Fragen zum Datenschutz auf, von denen wir glauben, dass sie öffentlich diskutiert und diskutiert werden sollten, nämlich:

1) Welchen Versuchungen werden Unternehmen in Bezug auf die Privatsphäre von Kandidaten in Bezug auf persönliche Merkmale ausgesetzt sein?

Mit fortschreitender Technologie werden Big Data und KI weiterhin in der Lage sein, „Proxy“ -Variablen für private, persönliche Attribute mit erhöhter Genauigkeit zu bestimmen. Heute können beispielsweise Facebook- „Likes“ verwendet werden, um mit beträchtlicher Genauigkeit auf sexuelle Orientierung und Rasse zu schließen. Politische Zugehörigkeit und religiöse Überzeugungen sind ebenso leicht zu identifizieren. Könnten Unternehmen versucht sein, Tools wie diese zu verwenden, um Kandidaten zu screenen, weil sie glauben, dass Entscheidungen, die nicht direkt auf der Grundlage geschützter Merkmale getroffen werden, rechtlich nicht umsetzbar sind? Während ein Arbeitgeber keine Gesetze verletzen darf, indem er lediglich die persönlichen Daten eines Bewerbers erkennt, kann das Unternehmen anfällig für rechtliche Exposition werden, wenn es nachteilige Beschäftigungsentscheidungen trifft, indem es sich auf geschützte Kategorien wie Geburtsort, Rasse oder Muttersprache stützt — oder auf private Informationen, die es nicht berücksichtigen darf, wie z. B. mögliche körperliche oder geistige Erkrankungen. Wie die Gerichte mit Situationen umgehen werden, in denen sich Arbeitgeber auf Tools verlassen haben, die diese Proxy-Variablen verwenden, ist unklar; tatsache ist jedoch, dass es rechtswidrig ist, aufgrund bestimmter geschützter oder privater Merkmale nachteilige Maßnahmen zu ergreifen – unabhängig davon, wie diese gelernt oder abgeleitet wurden.

Dies könnte auch für Gesichtserkennungssoftware gelten, da neuere Forschungen vorhersagen, dass gesichtslesende KI bald in der Lage sein könnte, die sexuelle und politische Orientierung von Kandidaten sowie „innere Zustände“ wie Stimmung oder Emotion mit einem hohen Maß an Genauigkeit zu erkennen. Wie könnte sich die Anwendung des Americans with Disabilities Act ändern? Darüber hinaus verbietet das Employee Polygraph Protection Act Arbeitgebern im Allgemeinen, Lügendetektortests als Screening-Tool vor der Beschäftigung zu verwenden, und das Genetic Information Nondiscrimination Act verbietet Arbeitgebern, genetische Informationen bei Beschäftigungsentscheidungen zu verwenden. Aber was ist, wenn genau die gleiche Art von Informationen über Wahrheit, Lügen oder genetische Attribute durch die oben genannten technologischen Werkzeuge bestimmt werden kann?

2) Welchen Versuchungen werden Unternehmen in Bezug auf die Privatsphäre von Kandidaten in Bezug auf Lebensstil und Aktivitäten ausgesetzt sein?

Arbeitgeber können jetzt auf Informationen zugreifen, wie z. B. den Online- „Check-in“ eines Bewerbers in seiner Kirche jeden Sonntagmorgen, die Überprüfung der Demenzpflegeeinrichtung eines anderen Bewerbers, in die er seine älteren Eltern eingecheckt hat, und die Scheidung eines Dritten vor einem Zivilgericht. All diese Dinge und vieles mehr sind im digitalen Zeitalter leicht zu entdecken. Big Data folgt uns überall hin, wo wir online gehen, und sammelt und sammelt Informationen, die mit Tools geschnitten und gewürfelt werden können, die wir uns noch nicht einmal vorstellen können — Tools, die zukünftige Arbeitgeber möglicherweise über unsere Eignung (oder deren Fehlen) für bestimmte Rollen informieren könnten. Und Big Data wird nur größer werden; Experten zufolge wurden 90% der Daten der Welt allein in den letzten zwei Jahren generiert. Mit der Erweiterung der Daten kommt die potenzielle Erweiterung für Missbrauch und daraus resultierende Diskriminierung — entweder absichtlich oder unbeabsichtigt.

Im Gegensatz zur EU, die ihren Datenschutzansatz im Rahmen der Datenschutz-Grundverordnung (DSGVO) harmonisiert hat, setzen die USA auf einen Flickenteppich, der weitgehend vom staatlichen Recht bestimmt wird. In Bezug auf soziale Medien haben die Staaten bereits 2012 mit der Einführung von Gesetzen begonnen, um zu verhindern, dass Arbeitgeber Passwörter für persönliche Internetkonten als Beschäftigungsbedingung anfordern. Mehr als zwanzig Staaten haben diese Art von Gesetzen erlassen, die für Arbeitgeber gelten. In Bezug auf die allgemeine Privatsphäre bei der Nutzung neuer Technologien am Arbeitsplatz gab es jedoch weniger spezifische Leitlinien oder Maßnahmen. Insbesondere in Kalifornien wurden Gesetze verabschiedet, die die Verwendung von Kandidaten- oder Mitarbeiterdaten durch Arbeitgeber möglicherweise einschränken. Im Allgemeinen müssen Staats- und Bundesgerichte noch einen einheitlichen Rahmen für die Analyse der Privatsphäre von Mitarbeitern im Zusammenhang mit neuen Technologien festlegen. Das Fazit ist, dass die Privatsphäre der Mitarbeiter im Zeitalter von Big Data zumindest vorerst ungeklärt bleibt. Dies versetzt die Arbeitgeber in eine widersprüchliche Position, die zur Vorsicht aufruft: Es steht modernste Technologie zur Verfügung, die äußerst nützlich sein kann. Aber es gibt Ihnen Informationen, die zuvor als privat angesehen wurden. Ist es legal, in einem Einstellungskontext zu verwenden? Und ist es ethisch zu prüfen, ob der Kandidat nicht zugestimmt hat?

3) Welchen Versuchungen werden Unternehmen in Bezug auf die Privatsphäre von Kandidaten in Bezug auf Behinderungen ausgesetzt sein?

Der Americans with Disabilities Act stellt geistige Behinderungen neben körperlichen Behinderungen direkt in seinen Zuständigkeitsbereich und definiert eine Person als behindert, wenn die Beeinträchtigung eine wichtige Lebensaktivität erheblich einschränkt, wenn die Person eine solche Beeinträchtigung hat oder wenn die Person wahrgenommen wird eine solche Beeinträchtigung haben. Vor etwa einem Jahrzehnt, Die U.S. Die Equal Employment Opportunity Commission (EEOC) gab Leitlinien heraus, die besagen, dass die wachsende Liste der in der psychiatrischen Literatur beschriebenen Persönlichkeitsstörungen als geistige Beeinträchtigungen gelten kann, und das ADA-Änderungsgesetz erleichterte es einer Person, festzustellen, dass sie eine Behinderung im Sinne der ADA hat. Infolgedessen kann die Kategorie der Personen, die unter der ADA geschützt sind, jetzt Personen umfassen, die erhebliche Probleme haben, in sozialen Situationen zu kommunizieren, Personen, die Konzentrationsprobleme haben, oder Personen, die Schwierigkeiten haben, mit anderen zu interagieren.

Die Technologie wirft nicht nur neue Fragen zu Behinderungen auf, sondern stellt auch neue Dilemmata in Bezug auf demografische oder andere Unterschiede dar. Es gab bereits hochkarätige reale Situationen, in denen diese Systeme erlernte Vorurteile aufgedeckt haben, insbesondere in Bezug auf Rasse und Geschlecht. Amazon zum Beispiel entwickelte ein automatisiertes Talentsuchprogramm zur Überprüfung von Lebensläufen — das aufgegeben wurde, als das Unternehmen feststellte, dass das Programm Kandidaten nicht geschlechtsneutral bewertete. Um solche Verzerrungen zu reduzieren, balancieren Entwickler die Daten aus, die für das Training von KI-Modellen verwendet werden, um alle Gruppen angemessen darzustellen. Je mehr Informationen die Technologie hat und berücksichtigen / daraus lernen kann, desto besser kann sie potenzielle Verzerrungen kontrollieren.

Zusammenfassend lässt sich sagen, dass neue Technologien bereits auf neue Weise die Grenzen zwischen öffentlichen und privaten Attributen, „Merkmalen“ und „Zuständen“ überschreiten können, und es gibt allen Grund zu der Annahme, dass sie dies in Zukunft zunehmend können werden. Durch den Einsatz von KI, Big Data, Social Media und maschinellem Lernen haben Arbeitgeber immer mehr Zugang zum Privatleben, zu privaten Attributen sowie zu privaten Herausforderungen und Gemütszuständen der Kandidaten. Auf viele der neuen Fragen zum Datenschutz, die wir hier aufgeworfen haben, gibt es keine einfachen Antworten, aber wir glauben, dass sie alle einer öffentlichen Diskussion und Debatte würdig sind.

Leave a Reply

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.