予測は得意ではないが、AIに関するニュースは今後も続々と登場すると確信している——良いものも悪いものも。AIが既に、あるいは近い将来、採用活動や人材確保の日常的な一部となり、最終的には業績管理まで支援するようになるだろう。AIの活用は応募書類のスクリーニングや一次面接の実施といった事務負担の軽減に寄与する可能性が高い。しかし同時に、不均衡な影響を及ぼすという主張のリスクも高めるだろう。
EEOCはこの点について最近指針を発表した。新たな指針は1978年の「従業員選抜手続に関する統一ガイドライン」に基づいており、同ガイドラインでは一般的に、測定対象となる特性が職務における成功した業績の信頼できる指標であることを保証するため、妥当性調査の実施を要求している。
簡単に復習すると、表面上は中立的な雇用慣行(例えば、最低基準を満たす者を決定するためにAIを用いて応募書類をスクリーニングすること)が、特定の保護対象カテゴリー(例えば40歳以上の人々)または複数の保護対象カテゴリーの組み合わせ(例えばヒスパニック系の女性)に属する人々を不釣り合いに排除する結果をもたらす場合に、不均衡な影響が生じます。
最初の疑問点——そして関連する要点——は、影響が不均衡であると判断する基準は何かということです。一般的な簡易手法として「80%ルール」(四分五分の法則とも呼ばれる)があります。応募者グループが男性100名、女性100名であると仮定しましょう。AIは男性のうち50名(50%)、女性のうち25名(25%)が適格と判断します。 保護対象グループの選抜率(25/50)を非保護対象グループと比較すると、その差は50%となる。この比率が80%を下回るため、統計的に不均衡な影響が存在することを示している。
しかし、これだけでは実際に不均衡な影響があるとは結論づけられないかもしれない。80%ルールはあらゆる状況に適しているわけではなく、状況によっては他の種類のテストの方が適している場合がある。 仮に80%ルールが適用可能であっても、企業が選考ツールが職務に関連し、事業上の必要性と整合していると証明できれば、不均衡な影響は法的に正当化される可能性がある。つまり、採用行動が80%ルールを満たさない場合、追加または異なるテストを実施するか、この結果にもかかわらず自社のテスト方法が必要な理由について、より詳細な根拠を示す必要がある。
あるいは、80%ルールに準拠しているからといって、自動的に法的リスクがなくなるわけではありません。職務内容説明書や採用プロセスの他の部分で、保護対象となる特性に基づいて応募者を排除する場合、選考ツールは80%ルールの基準を満たすかもしれませんが、全体としては依然として法的問題を引き起こす可能性があり、法的異議申し立ての対象となり得ます。
さらに、雇用主は差別的影響の主張から責任を逃れるために、ベンダーのテストに関する説明だけに依存することはできません。法的リスクが単にベンダーに移るわけではなく、雇用主が依然として責任を負う可能性があります。どのような状況であれ、選考や採用におけるAIの適切な活用には、その使用と結果を正当化するための時間と費用が伴います。
関連する問題として記録の保存期間が挙げられる。HireVueが開発したAIスクリーニングツールの不適切な使用を主張する最近の訴訟は、2021年の求人応募を根拠としている。2019年のワシントンポスト記事でHireVueは、標準的な30分間の評価で最大50万のデータポイントを提供すると述べていたが、これが最近の訴訟で問題となっているツールと同種のものかは不明である。 訴訟が終結するまで2年以上も保存しなければならないデータ量は膨大だ。こうしたリソース投資は、AIツールの実質的な適正性を確保するための追加負担となる。選考への影響に関する全データを保有しているとしても、2年前のAIプロセスを記憶している人材が必要となる。変化の激しい分野では、これは大きな課題となり得る。
要するに、注意を払い続けなければならない。ニュースが伝えているように、AIは急速に進化している。採用選考や採用プロセスにAIを活用する利点を考慮し、AIツールが問題視された場合に必要となる追加投資と比較してみよう。