
雇用における人工知能(AI)ベースの自動意思決定システムの使用に関するカリフォルニア州の規制が2025年10月1日に施行された。この規制は、「自動判断システム(Automated-Decision Systems)」の使用について規定したもので、雇用上の利益に関する人間の意思決定を行う、または容易にする計算処理と定義されている。同規則によると、「自動決定システムは、人工知能、機械学習、アルゴリズム、統計、および/またはその他のデータ処理技術に由来する、および/またはそれを使用することができる」とされている。
この規制は、カリフォルニア州公正雇用・住宅法(FEHA)の保護カテゴリーに基づき、応募者や従業員を差別する自動判定システムの使用を違法とするものである。この規制は、例えば、雇用主が応募者の履歴書を一次審査するために自動判定システムを使用し、その自動判定システムによって障がいのある応募者(または年齢、性別などその他の保護されるカテゴリーに属する応募者)をすべて排除するようなシナリオを対象としている。規則が提示する一例は、「応募者の声のトーン、表情、その他の身体的特徴や行動を分析する(人種、国籍、性別、障害、またはその他の特徴に基づいて個人を差別する可能性がある)」自動判定システムである。
特筆すべきは、「違法な差別を回避するための偏見防止テストまたは同様の積極的な努力(その質、効果、反復性、範囲、テストまたはその他の努力の結果、結果に対する対応を含む)の証拠または証拠の欠如」が、規制に基づいて提起される請求に関連すると規定していることである。
この文言は、自動判定システムの使用に基づくクレーム防止に関する雇用主へのロードマップを提供するものである。自動判定システムを使用する雇用主は、システムに偏りがないか監査し、システムが偏りを検出するために徹底的にテストされ、偏りの問題があれば十分に対処されていることを証明するようベンダーに要求するなどの保護措置を講じる必要がある。よくあることだが、カリフォルニア州は、雇用法との関連でこの種のテクノロジーに取り組む最初の州のひとつである。他の州もすぐに追随するものと思われる。