人工知能の利用がビジネスや文化のあらゆる側面に浸透するにつれ、政府の規制は(おそらく遅すぎるほどに)その利用に法的境界線を設けようとしている。
2022年5月12日、米国雇用機会均等委員会(EEOC)は、新たな包括的な「技術支援」ガイダンス『米国障害者法と求職者・従業員評価におけるソフトウェア・アルゴリズム・人工知能の利用』を発表した。本ガイダンスは複数の領域を網羅し、アルゴリズムと人工知能(AI)を定義するとともに、雇用主によるAIの活用事例を示している。ベンダー提供のAIツール使用における雇用主の責任問題への回答、当該文脈におけるAI導入時の合理的配慮の要求、合理的配慮により本来適格となる候補者をAIが排除する「スクリーニングアウト」問題への対応、障害関連・医療質問回避のための制限要求、雇用主・求職者・従業員共通の「有望な実践手法」の推奨、AIツール使用における障害差別リスクの具体的事例多数を提示している。
新たなガイダンスからの主なポイントは以下の通りです:
雇用主はAIベンダーソフトウェアに関してADA(障害者差別禁止法)上の責任を問われる可能性がある:
- ベンダーソフトウェアのリスクエクスポージャー。従業員や求職者を評価するためにAI駆動型の意思決定ツールを導入する雇用主は、その技術の欠陥について米国障害者法(ADA)に基づく責任を問われる可能性がある。たとえAIツールが第三者のベンダーによって開発または管理されていた場合でも、雇用主は 責任を問われる可能性がある——特に雇用主が「ベンダーに雇用主に代わって行動する権限を与えた」場合にはなおさらである。
- 試験実施側と合理的配慮側において。これは、雇用主が評価の実施および合理的配慮の付与におけるAIベンダーの行動または不作為から生じるリスクを管理する必要があることを意味する。個人が障害を理由に合理的配慮を請求し、ベンダーがその請求を拒否した場合、雇用主は当該請求を認識していなかったにもかかわらず、ベンダーの不作為に対して責任を問われる可能性がある。
- ベンダー契約を確認してください。雇用主は、AIベンダー契約における補償条項およびその他の責任制限・責任分担条項を慎重に検討すべきです。
アルツールは、障害を持つ適格者を違法に「選別除外」する可能性がある:
- スクリーニングによる排除。AIの文脈における「スクリーニングによる排除」とは、障害が原因でAI駆動型雇用試験の成績が低下した場合、あるいはAI駆動型の閾値基準を満たせないために候補者が最初から選考対象から外される場合に発生する。ADA(アメリカ障害者法)の下では、合理的配慮により職務の本質的機能を遂行できる個人をスクリーニングツールが排除した場合、その排除は違法となる。
- 例:AIツールは、手先の器用さに制限がある人(キーボード操作が困難な人)、視覚・聴覚・言語に障害がある人、過去の障害問題による就業空白期間がある人、PTSDに苦しむ人(これにより性格診断テストやゲーム化された記憶力テストなどの結果が歪められる)を排除する可能性がある。
ガイドラインによれば:「 障害は、例えば、評価の精度を低下させる、考慮されていない特別な状況を生み出す、あるいは個人が評価に全く参加することを妨げるなどして、この[スクリーニングアウト]効果をもたらす可能性がある。」
- バイアスフリー?一部のAIベースの意思決定ツールは「検証済み」で「バイアスフリー」と謳われている。聞こえは良いが、この表示は性別・年齢・人種とは異なり、障害については言及していない可能性がある。身体的・精神的・情緒的な障害は生活の広範な領域をカバーし、必要とされる配慮を含め極めて個別化されるため、バイアスフリーなソフトウェア調整が困難な領域である。 例えば学習障害は、その重症度や特徴が非常に多様であるため、人間の観察者には見落とされがちだ。雇用主は、AIがより優れた対応ができるという保証を必要とするだろう。
AIスクリーニングは違法な障害および医療関連の質問を生成する可能性がある:
- 違法な照会。AI駆動型ツールは、条件付き採用内定を承認する前に、違法な「障害関連の照会」を生成したり、「健康診断」の一環として情報を求めたりすることがあります。
ガイドラインによれば:「評価には、求職者または従業員に対して障害に関する情報を引き出す可能性のある質問を行う場合、または求職者または従業員が障害者であるかどうかを直接尋ねる場合、『障害に関連する質問』が含まれる。個人の身体的または精神的な障害、あるいは健康状態に関する情報を求める場合は『健康診断』に該当する。 応募者の健康状態を特定するために使用される可能性のあるアルゴリズムによる意思決定ツールは、条件付き採用内定前に実施された場合、これらの制限に違反する。」
- 間接的な失敗。AIツールによる健康関連の問い合わせのすべてが「障害に関連する質問または健康診断」と見なされるわけではない。
ガイドラインによれば:「健康関連情報の要求が、ADA(障害者法)の障害に関する質問や医学的検査の制限に違反しない場合でも、ADAの他の規定に違反する可能性がある。 例えば、性格検査で楽観性に関する質問があり、大うつ病性障害(MDD)を持つ者がそれらの質問に否定的に回答した結果、雇用機会を失った場合、その検査はMDDを理由に申請者を『選別除外』したことになる可能性がある。」
ベストプラクティス:測定対象の明確な通知と合理的配慮の提供について:
雇用主がAIツール利用のリスクを管理するために従うべきベストプラクティスは数多く存在する。本ガイダンスではそれらを「有望な実践例」と呼んでいる。主なポイント:
- 評価項目と手法を開示する。ベストプラクティスとして、AIソフトウェア/ツール/アプリケーションが第三者のベンダーによって開発されたか否かにかかわらず、雇用主(またはそのベンダー)は、従業員または求職者に対し、評価の内容を平易で理解しやすい言葉で説明すべきである。 具体的には、AIツールで測定またはスクリーニングされる知識、技能、能力、学歴、経験、資質、特性を事前に開示すること。同様に、テストの実施方法と必要な要件(キーボード操作、口頭での質問回答、チャットボットとの対話など)も事前に明示する。
- 合理的配慮の要請を促す。この情報を活用することで、応募者や従業員は、何らかの障害に伴う配慮が必要だと感じた場合、事前に声を上げる機会が増えます。したがって、雇用主はツールを用いて従業員や求職者に合理的配慮が必要かどうか尋ねることを検討すべきです。
-
- 明らかな障害または既知の障害:明らかな障害または既知の障害を持つ従業員または求職者が合理的配慮を要請した場合、雇用主はその要請に迅速かつ適切に対応すべきである。
-
- その他の隠れた障害:障害が他に知られていない場合、雇用主は医療証明書の提出を求めることがあります。
- 合理的配慮の提供。申告された障害が確認された場合、雇用主は代替試験形式の提供を意味する場合であっても、合理的配慮を提供しなければならない。この点において、ガイダンスはAIの使用と真に矛盾する可能性がある。こうしたツールが普及するにつれ、代替試験は比較して不十分に見える可能性があり、AIによる試験を受けた者と従来型試験を受けた者との間に潜在的な差別が生じる恐れがある。
ガイドラインによれば:「合理的配慮の例としては、専用機器、代替試験または試験形式、静かな環境での作業許可、職場方針の例外措置などが挙げられる。」
- 個人健康情報を保護してください。従来通り、合理的配慮の要請に関連して入手した医療情報は、機密を保持し、従業員または応募者の人事ファイルとは別個に保管しなければなりません。
民間雇用主セクターにおけるAIへの依存度が高まるにつれ、雇用主はこの技術の意図せざる結果を制御するため、積極的なリスク管理を拡大せざるを得なくなる。法的基準は変わらないが、AI技術はコンプライアンスの限界を押し広げる可能性がある。その方向で最善の努力を払うことに加え、雇用主はベンダー契約条項や保険適用範囲など、その他のリスク管理手段を精査すべきである。
本記事は、2022年サマーアソシエイトのアヤ・ハウシーニの協力により作成されました。