2024年の雇用法は「人工知能立法の年」と評されるにふさわしい。実際、5州を除く全州が2024年に新たな人工知能(AI)関連法案を導入した。例外となった5州のうち4州は、単に2024年に立法議会が開催されなかったためである。 テキサス州も例外州の一つであったが、2025年1月に州議会が再開され、最近提案された「テキサス州責任あるAIガバナンス法(TRAIGA)」が審議される見込みであり、大多数の州に追随する態勢にある。新年を迎えるにあたり、雇用主(特に複数州で事業を展開する企業)は、管轄区域における現行および提案中のAI関連法案を把握し、絶えず進化するAI規制環境へのコンプライアンスを維持する必要がある。
AI規制は本ブログで頻繁に取り上げられるテーマである。連邦レベルでの包括的な法規制は存在しないものの、雇用機会均等委員会(EEOC)と労働省(DOL)は指針文書を発行し、責任あるAI利用における人間の監督確保に強く注力しているからだ。特に人事判断におけるAIツールの使用に関しては、データプライバシーやアルゴリズムによる差別から 雇用の安定性や透明性に至るまで、正当な懸念が数多く存在する。
現在、複雑さが異なる州ごとの規制がパッチワーク状に実施されているか、近く施行される見込みである。2024年に制定されたAI規制の中でも最も堅牢で話題となった事例の一つがコロラド州人工知能法(CAIA)であり、これは「高リスク人工知能システム」を定義し包括的に規制する世界初の法の一つとして称賛された。 CAIAでは、こうしたAIツールを導入する雇用主は、アルゴリズムによる差別から従業員を保護するため「合理的な注意義務」を履行しなければならない。これには潜在的なバイアスを軽減するためのリスク管理方針の策定や、年次影響評価の実施が義務付けられている。 さらにCAIAには、連邦公正信用報告法(FCRA)と同様の要件が含まれており、雇用主は従業員に関する意思決定に高リスクAIシステムを使用する場合、その旨を従業員に通知しなければならない。CAIAの施行は2026年2月1日まで延期されているが、雇用主は同法の厳格な基準を満たすため、今から準備を進めるべきである。
最近提案されたTRAIGAも同様に、「高リスクAIシステム」の開発者および導入者を規制することを提案している。具体的には、高リスクAIシステムの導入者は、少なくとも半年ごとに詳細な影響評価を実施することが義務付けられる。これには、実際の、または疑われるアルゴリズム的差別、サイバーセキュリティ対策、透明性に関する懸念に対する継続的な監視が含まれる。 提案されている「高リスクAIシステム」の定義には、雇用決定や機会への「寄与要因」となるあらゆる人工知能ツールが含まれる。これは、人事決定にAIを利用するテキサス州の雇用主すべてがTRAIGAの適用対象となり得ることを意味する。TRAIGAは政府と民間双方の執行メカニズムを規定しており、2025年に向けて注視すべき最も重要なAI関連法案の一つとなっている。
雇用主は、2024年に急増したAI関連法規制(CAIAを含む)および今後1年間に予想されるTRAIGAなどの法規制に対応するため、以下のベストプラクティスに従うべきである:
- 事業を展開する州における規制環境を評価し、組織に適用されるコンプライアンス義務を特定する。
- 組織が利用している人工知能ツール(例:履歴書スクリーナー、応募者追跡システム、チャットボットなど)を評価する。
- 貴組織が利用している、または導入を予定しているAIツールの開発者と連携し、適用される規制に準拠するための行動計画を策定してください。
- 職場におけるAI利用に関する組織方針を策定し、アルゴリズムバイアスの潜在的な影響を軽減するとともに、透明性とデータプライバシーを確保するため、当該ツールの評価・承認に関する基準を確立する。
2025年に時代の先端を行くためには、雇用主は迅速かつ戦略的に行動し、急速に進化するAI規制枠組みに人事慣行を整合させる必要がある。