Neue EEOC-Leitlinien: Der Einsatz künstlicher Intelligenz kann zu einer Diskriminierung von Mitarbeitern oder Bewerbern mit Behinderungen führen.
Da künstliche Intelligenz zunehmend in alle Bereiche der Wirtschaft und Kultur Einzug hält, bemüht sich die Regierung (wenn auch vielleicht etwas zu langsam) darum, gesetzliche Grenzen für deren Einsatz zu schaffen.
Am 12. Mai 2022 veröffentlichte die Equal Employment Opportunity Commission (Behörde für Chancengleichheit am Arbeitsplatz) einen neuen umfassenden Leitfaden mit dem Titel „The Americans with Disabilities Act and the Use of Software, Algorithms, and Artificial Intelligence to Assess Job Applicants and Employees” (Das Gesetz zur Gleichstellung von Menschen mit Behinderungen und der Einsatz von Software, Algorithmen und künstlicher Intelligenz zur Bewertung von Bewerbern und Mitarbeitern). Der Leitfaden, der eine Reihe von Bereichen abdeckt, definiert Algorithmen und künstliche Intelligenz (KI), gibt Beispiele für den Einsatz von KI durch Arbeitgeber, beantwortet die Frage nach der Haftung des Arbeitgebers für die Nutzung von KI-Tools von Anbietern; verlangt angemessene Vorkehrungen beim Einsatz von KI in diesem Zusammenhang; befasst sich mit dem Problem der „Aussortierung“ durch KI, die Bewerber ablehnt, die mit angemessenen Vorkehrungen für die Stelle qualifiziert wären; verlangt Einschränkungen, um Fragen zu Behinderungen und medizinischen Themen zu vermeiden; fördert „vielversprechende Praktiken“ für Arbeitgeber, Bewerber und Arbeitnehmer gleichermaßen; und gibt viele konkrete Beispiele für Fallstricke bei der Diskriminierung von Menschen mit Behinderungen durch den Einsatz von KI-Tools.
Hier sind einige wichtige Punkte aus den neuen Leitlinien:
Arbeitgeber können für KI-Anbietersoftware einer Haftung gemäß ADA ausgesetzt sein:
- Risikoexposition für Anbietersoftware. Arbeitgeber, die KI-gesteuerte Entscheidungshilfen zur Bewertung von Mitarbeitern oder Bewerbern einsetzen, können gemäß dem Americans with Disabilities Act (ADA) für die Mängel dieser Technologie haftbar gemacht werden. Selbst wenn das KI-Tool von einem Drittanbieter entwickelt oder verwaltet wurde, kann der Arbeitgeber in die Pflicht genommen werden – insbesondere, wenn der Arbeitgeber „[dem Anbieter] die Befugnis erteilt hat, in seinem Namen zu handeln“.
- Auf der Testseite und auf der Seite der angemessenen Vorkehrungen. Das bedeutet, dass Arbeitgeber das Risiko aus den Handlungen oder Unterlassungen des KI-Anbieters bei der Durchführung der Bewertung und der Gewährung angemessener Vorkehrungen managen müssen. Wenn eine Person aufgrund einer Behinderung angemessene Vorkehrungen beantragt und der Anbieter den Antrag ablehnt, kann der Arbeitgeber trotz Unkenntnis über den Antrag für die Unterlassung des Anbieters haftbar gemacht werden.
- Überprüfen Sie die Lieferantenvereinbarung. Arbeitgeber sollten die Entschädigungs- und andere haftungsbeschränkende und -verteilende Bestimmungen ihrer KI-Lieferantenvereinbarungen sorgfältig prüfen.
Al Tools kann qualifizierte Personen mit Behinderungen unrechtmäßig „ausfiltern“:
- Aussortierung. Eine „Aussortierung “ im Zusammenhang mit KI kann auftreten, wenn eine Behinderung die Leistung einer Person bei einem KI-gestützten Einstellungstest beeinträchtigt oder einen Bewerber von vornherein von der Auswahl ausschließt, weil er die KI-gestützten Mindestkriterien nicht erfüllt. Gemäß dem ADA ist eine Aussortierung unzulässig, wenn das Tool eine Person aussortiert hat, die mit angemessenen Vorkehrungen in der Lage ist , die wesentlichen Aufgaben der Stelle zu erfüllen.
- Beispiele: KI-Tools können Personen aussortieren, die nur über eingeschränkte manuelle Geschicklichkeit (zur Bedienung einer Tastatur) verfügen, die seh-, hör- oder sprachbehindert sind, die aufgrund früherer Behinderungen Lücken in ihrem Lebenslauf aufweisen oder die an PTBS leiden (wodurch beispielsweise die Ergebnisse von Persönlichkeitstests oder spielerischen Gedächtnistests verfälscht werden).
Gemäß der Leitlinie: „Eine Behinderung könnte diesen [Ausschluss]effekt beispielsweise dadurch haben, dass sie die Genauigkeit der Beurteilung beeinträchtigt, besondere Umstände schafft, die nicht berücksichtigt wurden, oder die Person daran hindert, überhaupt an der Beurteilung teilzunehmen.“
- Voreingenommenheit frei? Einige KI-basierte Entscheidungshilfen werden als „validiert“ und „voreingenommenheit frei“ vermarktet. Das klingt gut, aber diese Bezeichnung sagt möglicherweise nichts über Behinderungen aus, im Gegensatz zu Geschlecht, Alter oder ethnischer Zugehörigkeit. Behinderungen – körperliche, geistige oder emotionale – decken einen breiten Bereich des Lebens ab, können sehr individuell sein (auch hinsichtlich der erforderlichen Anpassungen) und sind daher weniger anfällig für voreingenommenheitsfreie Softwareanpassungen. Beispielsweise können Lernbehinderungen von menschlichen Beobachtern oft nicht erkannt werden, da ihre Schwere und ihre Merkmale so unterschiedlich sind. Arbeitgeber benötigen die Gewissheit, dass KI dies besser kann.
KI-Bildschirme können unzulässige Anfragen zu Behinderungen und medizinischen Themen generieren:
- Unrechtmäßige Anfragen. KI-gesteuerte Tools können unrechtmäßige „Anfragen zu Behinderungen“ generieren oder im Rahmen einer „medizinischen Untersuchung“ Informationen einholen, bevor sie Kandidaten für bedingte Stellenangebote zulassen.
Gemäß den Leitlinien: „Eine Beurteilung umfasst „Behinderungsbezogene Fragen“, wenn sie Bewerbern oder Mitarbeitern Fragen stellt, die wahrscheinlich Informationen über eine Behinderung hervorbringen, oder direkt fragt, ob ein Bewerber oder Mitarbeiter eine Person mit einer Behinderung ist. Sie gilt als „medizinische Untersuchung“, wenn sie Informationen über die körperlichen oder geistigen Beeinträchtigungen oder die Gesundheit einer Person einholt. Ein algorithmisches Entscheidungsinstrument, das zur Ermittlung des Gesundheitszustands eines Bewerbers verwendet werden könnte, würde gegen diese Beschränkungen verstoßen, wenn es vor einem bedingten Stellenangebot eingesetzt würde.“
- Indirekte Unzulässigkeit. Nicht alle gesundheitsbezogenen Abfragen durch KI-Tools gelten als „Behinderungsbezogene Abfragen oder medizinische Untersuchungen“.
Gemäß der Richtlinie: „Selbst wenn eine Anfrage nach gesundheitsbezogenen Informationen nicht gegen die Beschränkungen der ADA hinsichtlich behinderungsbezogener Fragen und medizinischer Untersuchungen verstößt, kann sie dennoch gegen andere Teile der ADA verstoßen. Wenn beispielsweise in einem Persönlichkeitstest Fragen zum Optimismus gestellt werden und eine Person mit einer schweren depressiven Störung (MDD) diese Fragen negativ beantwortet und dadurch eine Beschäftigungsmöglichkeit verliert, kann der Test den Bewerber aufgrund seiner MDD „ausscheiden”.
Bewährte Verfahren: Deutlicher Hinweis darauf, was gemessen wird – und dass angemessene Vorkehrungen getroffen werden können:
Es gibt eine Reihe von bewährten Verfahren, die Arbeitgeber befolgen können, um das Risiko der Verwendung von KI-Tools zu bewältigen. In den Leitlinien werden sie als „vielversprechende Verfahren” bezeichnet. Die wichtigsten Punkte:
- Offenlegung der Themen und Methodik. Als bewährte Vorgehensweise sollten Arbeitgeber (oder ihre Lieferanten) unabhängig davon, ob die KI-Software/das KI-Tool/die KI-Anwendung von einem Drittanbieter entwickelt wurde, ihre Mitarbeiter oder Bewerber in klarer und verständlicher Sprache darüber informieren, was die Bewertung beinhaltet. Mit anderen Worten: Geben Sie im Voraus bekannt, welche Kenntnisse, Fähigkeiten, Fertigkeiten, Bildungsabschlüsse, Erfahrungen, Eigenschaften oder Merkmale mit dem KI-Tool gemessen oder überprüft werden. Geben Sie ebenfalls im Voraus bekannt, wie die Tests durchgeführt werden und was dafür erforderlich ist – Verwendung einer Tastatur, mündliche Beantwortung von Fragen, Interaktion mit einem Chatbot oder ähnliches.
- Einladungen zu Anträgen auf angemessene Vorkehrungen. Mit diesen Informationen ausgestattet, hat ein Bewerber oder Mitarbeiter mehr Möglichkeiten, sich im Voraus zu äußern, wenn er der Meinung ist, dass bestimmte Vorkehrungen für Menschen mit Behinderung erforderlich sind. Daher sollten Arbeitgeber in Betracht ziehen, Mitarbeiter und Bewerber mithilfe dieses Tools zu fragen, ob sie angemessene Vorkehrungen benötigen.
-
- Offensichtliche oder bekannte Behinderung: Wenn ein Arbeitnehmer oder Bewerber mit einer offensichtlichen oder bekannten Behinderung um eine angemessene Vorkehrung bittet, sollte der Arbeitgeber unverzüglich und angemessen auf diese Bitte reagieren.
-
- Sonst nicht erkennbare Behinderung: Ist die Behinderung anderweitig nicht bekannt, kann der Arbeitgeber medizinische Unterlagen anfordern.
- Sinnvolle Anpassungen vornehmen. Sobald die geltend gemachte Behinderung bestätigt ist, muss der Arbeitgeber sinnvolle Anpassungen vornehmen, auch wenn dies bedeutet, dass ein alternatives Testformat angeboten werden muss. Hier kann es zu einem echten Konflikt zwischen den Leitlinien und dem Einsatz von KI kommen. Da solche Tools immer mehr zum Standard werden, können alternative Tests im Vergleich dazu unzureichend erscheinen, was zu einer potenziellen Diskriminierung zwischen Personen, die mit KI getestet wurden, und Personen, die nach dem alten Verfahren getestet wurden, führen kann.
Gemäß den Leitlinien: „Beispiele für angemessene Vorkehrungen können spezielle Ausrüstung, alternative Tests oder Testformate, die Erlaubnis, in einer ruhigen Umgebung zu arbeiten, und Ausnahmen von den Arbeitsplatzrichtlinien sein.“
- Schützen Sie PHI. Wie immer müssen alle medizinischen Informationen, die im Zusammenhang mit Anträgen auf angemessene Vorkehrungen eingeholt werden, vertraulich behandelt und getrennt von der Personalakte des Mitarbeiters oder Bewerbers aufbewahrt werden.
Angesichts der zunehmenden Abhängigkeit vom Einsatz künstlicher Intelligenz im privaten Arbeitgeberbereich müssen Arbeitgeber ihr proaktives Risikomanagement ausweiten, um die unbeabsichtigten Folgen dieser Technologie zu kontrollieren. Die rechtlichen Standards bleiben unverändert, aber die KI-Technologie könnte die Grenzen der Compliance erweitern. Neben größtmöglichen Anstrengungen in dieser Richtung sollten Arbeitgeber auch andere Mittel des Risikomanagements wie Vertragsbedingungen mit Lieferanten und Versicherungsschutz genau prüfen.
Dieser Artikel wurde mit Unterstützung von Ayah Housini, Sommerpraktikantin 2022, erstellt.