
고용 시 인공지능 기반(AI) 자동 의사 결정 시스템의 사용에 관한 캘리포니아의 업데이트된 규정이 2025년 10월 1일부터 발효되었습니다. 이 규정은 고용 혜택에 관한 결정을 내리거나 인간의 의사 결정을 촉진하는 계산 프로세스로 정의되는 "자동화된 의사 결정 시스템"의 사용에 대해 다룹니다. 규정에 따르면 "자동화된 의사 결정 시스템은 인공 지능, 머신 러닝, 알고리즘, 통계 및/또는 기타 데이터 처리 기술에서 파생되거나 사용될 수 있습니다."
이 규정은 캘리포니아의 공정 고용 및 주택법(FEHA)에 따라 보호되는 범주에 따라 지원자 또는 직원을 차별하는 자동 결정 시스템을 사용하는 것을 불법으로 규정하고 있습니다. 이 규정은 고용주가 자동 결정 시스템을 사용하여 지원자의 이력서를 1차 합격 처리하고 자동 결정 시스템이 장애가 있는 지원자(또는 연령, 성별 등 기타 보호 대상 범주에 속하는 지원자)를 모두 탈락시키는 경우와 같은 시나리오를 겨냥한 것입니다. 규정에서 제공하는 한 가지 예는 "지원자의 목소리 톤, 표정 또는 기타 신체적 특징이나 행동을 분석하여 인종, 출신 국가, 성별, 장애 또는 기타 특성에 따라 개인을 차별할 수 있는" 자동 결정 시스템과 관련된 것입니다.
특히 이 규정은 "불법 차별을 피하기 위한 편견 방지 테스트 또는 이와 유사한 사전 예방적 노력의 품질, 효과, 최근성 및 범위, 그러한 테스트 또는 기타 노력의 결과 및 결과에 대한 대응을 포함한 증거 또는 증거 부족"이 규정에 따라 제기되는 모든 청구와 관련이 있다고 규정하고 있습니다.
이 지침은 자동 결정 시스템 사용에 따른 클레임 예방과 관련하여 고용주를 위한 로드맵을 제공합니다. 자동 결정 시스템을 사용하는 고용주는 이러한 시스템에 편향성이 있는지 감사하고 공급업체가 편향성을 감지하기 위해 해당 시스템을 철저히 테스트했으며 편향성 문제가 충분히 해결되었음을 증명하도록 요구하는 등 보호 조치를 취해야 합니다. 종종 그렇듯이 캘리포니아는 이러한 유형의 기술을 고용법의 맥락에서 다룬 최초의 주 중 하나입니다. 다른 관할 지역에서도 곧 이를 따를 것으로 예상됩니다.