본 기사는 2024년 9월 6일 Law360에 최초 게재되었으며, 허가를 받아 여기에 재게재합니다.
인공지능의 업무 현장 도입은 최근 몇 달간 법적·규제적 논의를 촉발시켰다.
판사들은 법정에서의 인공지능 사용에 대한 금지 조치 및 기타 규제를 법정에서의 인공지능 사용을 금지하고 있다. 주들은 고용 관련 정책 및 의사 결정에서 AI 사용을 억제하거나 통제하기 위한 고용 관련 정책 및 의사 결정에서 AI 사용을 억제하거나 통제하기 위한 법안을 통과시키고 있습니다. 또한 고용주들은 급속히 진화하고 다양한 AI 도구에 기존 고용법이 어떻게 적용되는지 고민하고 있습니다.
인공지능이 고용 환경에 새로운 기술적 차원을 도입하지만, 인공지능 사용으로 제기되는 핵심 법적 쟁점들은 새로운 것이 아니다. 오히려 인공지능은 고전적 주제를 은유적으로 재구성한 것으로, 익숙한 고용법적 문제들이 단순히 반짝이는 새로운 기술적 틀 안에서 재포장되고 재맥락화될 뿐이다.
고용주들—특히 얼마 전까지만 해도 인공지능이 무엇인지구글 검색을해야 했던 기업들—은 인공지능과 이를 둘러싼 급증하는 법규들이 대부분 익숙하고 오랜 법적 문제들을 반영한다는 점에서 안심해도 좋다. 다만 현대적인 변형이 가미되었을 뿐이다.
차별 및 공정한 고용 관행
인공지능(AI)이 관여하든 그렇지 않든, 많은 고용법 문제의 핵심은 차별 문제입니다. 민권법 제7편과 같은 전통적인 고용법은 고용주가 인종, 피부색, 종교, 성별 및 출신 국가를 근거로 채용 및 선발 과정에서 차별하는 것을 금지합니다.
전국 기업들에 인공지능(AI)이 도입되고 신속히 적용되면서, 이러한 원칙들은 여전히 유효하지만 고용주들이 이제 채용 및 고용 의사결정 과정을 지원하기 위해 AI 도구와 데이터를 통합함에 따라 다소 복잡성이 증가했습니다. 그러나 실제로 무엇이 달라졌을까요?
일반적인 의사 결정 과정에서의 인간 오류 위험과 마찬가지로, AI 시스템은 인간이 만든 것이며 채용 및 인력 선발에 사용되는 AI 도구는 신중하게 설계, 모니터링 및 검증되지 않을 경우 인간의 편향을 지속시키거나 심지어 악화시킬 가능성이 있다.
예를 들어, 과거 채용 편향을 반영한 역사적 데이터로 훈련된 인공지능 시스템은 표면상 순수하게 객관적 지표와 데이터에 기반한 것처럼 보임에도 불구하고 의사 결정 과정에서 이러한 편향을 재현하고 강화할 수 있습니다. 검증 없이 방치될 경우, 이는 특정 보호 대상 집단을 불공정하게 불리하게 만드는 차별적 결과를 초래하여 차별 금지법 위반 가능성을 야기할 수 있습니다.
인공지능은 고용주가 신뢰하되 검증해야 하는 영원한 필요성을 단지 강화할 뿐이다.
미국 고용기회균등위원회(EEOC)및 기타 집행 기관들은 최근 인공지능 채용 도구에 암묵적 또는 실제적 편향이 내재될 수 있다고 경고했으나, 이는 고용주들에게 새로운 소식이 아니어야 한다.[1] 1978년 EEOC,미국 노동부,미국 법무부는공동으로 '직원 선발 절차에 관한 통일 지침(UGESP)'이라는 포괄적인 규정 집단을 발표했는데, 이는 모든 선발 장치와 절차가 차별적인 방식으로 사용되지 않도록 보장하기 위해 마련된 것이었다.[2]
UGESP의 적용 범위는 매우 광범위합니다. 당시에는 고용 관련 결정에 사용되는 종이 필기 시험에 초점을 맞추었는데, 이는 많은 시험들이 과학적 근거 없이 보호 대상 집단에 불균형적 영향을 미쳐 왔으며 실제 업무 성과 예측 능력도 입증되지 않았기 때문입니다. 인공지능은 고용법의 이러한 측면을 바꾸지 않으며, 단지 새로운 영역으로 확장할 뿐입니다. UGESP는 오늘날에도 여전히 유효하기 때문입니다.
전국적으로 시행되는 인공지능 관련 규제는 차별적 영향 우려를 근간으로 하며, 이는 종종 인공지능의 의사결정 생성 또는 지도를 위해 사용되는 데이터와 입력값에 대한 투명성을 요구한다. 그러나 광범위한 규제를 보고 직원 채용 방식의 패러다임 전환을 목격하기보다는, 고용주들은 현재 진행 중인 일이 사실 오래된 문제를 바라보는 새로운 방식에 불과하다는 점을 안심할 수 있다.
본질적으로, 대부분의 새로운 AI 규정은 이전에는 채용 관리자에게 물어봐야 했던 질문들을 제기합니다: 원본 데이터는 어디에서 오는가? 해석은 누가 수행하는가? 결정과 그 기반이 되는 데이터는 타당하고 객관적인가?
이러한 질문에 대한 답변은 의사 결정 과정의 어느 시점에 AI가 개입되었는지 여부에 따라 달라지거나 영향을 받지 않습니다. 간단히 말해, 고용주들은 개념적으로 다른 조치를 취할 필요가 없습니다. 단지 새로운 도구를 익히고, 그 도구들에서도 동일한 기존 문제가 발생할 수 있음을 이해하여 사전에 해당 문제들을 해결할 수 있도록 해야 합니다.
개인정보 및 데이터 보호
개인정보 보호 문제는 전통적인 고용법과 인공지능 기술이 교차하는 또 다른 영역이다.
역사적으로 고용 관련 법률은 근로자의 개인정보 보호를 의무화해 왔습니다. 효과적인 작동을 위해 대규모 데이터셋에 의존하는 경우가 많은 인공지능(AI)의 확산으로 수집되는 데이터의 양과 민감도는 크게 증가했습니다. 그러나 데이터 양과 민감도의 증가는 현재 고용주가 준수해야 하는 법적 위험과 우려 사항의 본질적 성격에는 아무런 변화를 주지 않습니다.
개인정보의 일반적인 저장 및 관리 과정에서 데이터 유출이 발생할 수 있듯이, 인공지능(AI) 역시 침해될 수 있습니다. 근본적인 우려 사항은 변하지 않습니다. 본질적으로 기술은 변화했지만 핵심 문제는 여전히 남아 있습니다: 직원들의 개인정보가 확립된 개인정보 보호법에 부합하는 방식으로 보호되고 사용되도록 보장하는 것입니다. 고용주들은 기존에 준수 여부를 모니터링하는 데이터 소스 목록에 AI 관련 애플리케이션과 도구를 추가함으로써 계속해서 노력해야 합니다.
고용주의 기밀 및 독점 정보 보호 역시 마찬가지입니다.
고용주는 역사적으로 기밀 유지 계약을 체결하도록 직원에게 의무화하거나, 동일한 내용의 고용 정책을 제정하고 전자 장비 사용 중 직원 활동을 고용주가 능동적 또는 무작위로 모니터링한다는 사실을 직원에게 통지함으로써 자체 민감 데이터를 보호해 왔습니다. 업무 관련 목적으로 직원이 AI 기술을 사용하는 경우, 특히 웹 기반이며 고용주 내부에서 독점적으로 사용되지 않는 AI 도구의 경우, 민감한 기밀 및 독점 정보가 대중에게 유출될 위험만 증가시킬 뿐입니다.
기존 정책 및 협약에 대한 검토, 업데이트 및 교육을 통해 직원들에게 이러한 위험과 업무용 AI 사용 시 주의하지 않을 경우의 결과를 경고하는 것이 불행하고 비용이 많이 드는 유출 사고 발생 가능성을 줄이는 핵심입니다. 이러한 교육은 AI 패러다임 외부에서도 이미 지속적으로 진행되어야 합니다.
고용 분류와 고용 안정성
고용 분류는 근로자를 직원으로 분류할지 독립 계약자로 분류할지를 결정하는 것으로, 고용법에서 오랫동안 쟁점이 되어왔다. 이 분류는 근로자의 복리후생 권리, 고용 안정성 및 노동법상 보호 조치에 영향을 미친다. 인공지능과 자동화의 부상은 이 주제에 새로운 차원을 더하고 있다.
특히 인공지능과 자동화는 직무 역할과 기능의 변화를 초래하여 근로자 분류 방식에 대한 의문을 제기한다. 예를 들어, 인공지능 시스템이 기존에 직원들이 수행하던 업무를 대신할 경우, 이는 기존 분류 기준에 따라 규정된 근로자의 고용 형태나 주요 업무 내용을 변경하는 것인가? 또한 인공지능 시스템이 보편화됨에 따라 일자리 대체 현상과 새로운 유형의 근로자 보호 장치 필요성에 대한 우려도 제기되고 있다.
그러나 "신기술 등장으로 인한 미국 일자리 감소"는 2024년에 새로 나온 헤드라인이 아니며, 지난 세기 어느 시점에서도 고용 환경에 새롭게 추가된 현상이 아니다. 인공지능(AI)은 과거 특정 기술 혁신과는 다르게 작동할 수 있지만, 그것이 제기하는 근본적인 도전은 다르지 않다. AI는 고용주가 운영을 지원하기 위해 활용할 수 있는 광범위한 도구들을 포괄하지만, 이러한 도구들은 여전히 인간의 운영, 모니터링 및 검증이 필요하다.
고용주는 '인공지능'이라는 용어가 생기기 훨씬 전부터 고민해왔던 모든 근로자 분류 문제를 염두에 두고, 인공지능을 기존 운영 체계에 가장 효과적으로 통합하는 방안을 신중히 고려해야 한다.
직장 건강 및 안전
직장 내 건강 및 안전 규정은 전통적으로 근로자를 신체적 피해로부터 보호하는 데 중점을 두어 왔다. 인공지능 시스템이 직장에 더욱 통합됨에 따라 새로운 안전 고려 사항이 대두되고 있다. 예를 들어, 로봇 및 자동화 기계의 도입은 사고와 부상을 방지하기 위한 엄격한 안전 기준을 요구한다.
또한 작업 환경 조건(예: 인체공학적 요소나 환경적 요인)의 모니터링 및 관리에 인공지능을 활용하는 것은 이러한 기술이 근로자의 복지에 미치는 영향에 대한 의문을 제기한다. 안전한 작업 환경 유지를 위해 인공지능 시스템이 안전을 고려하여 설계 및 구현되도록 하는 것은 중요하지만, 이는 작업장에서 흔히 발생하는 소송 위험 요인에 내재된 법적 환경과 위험 요소를 근본적으로 바꾸지는 않는다.
테이크아웃
요약하자면, 인공지능의 부상은 고용법에 새로운 도전과 고려 사항을 도입하지만, 이러한 문제들 중 상당수는 단순히 기존 법적 관심사를 기술적 틀에 재포장한 것에 불과하다. 차별, 사생활 보호, 고용 분류 및 직장 안전은 항상 고용법의 핵심이었으며, 인공지능은 이러한 문제들을 근본적으로 바꾸지 않고 오히려 새로운 기술적 관점으로 그 지속적인 관련성을 부각시킬 뿐이다.
고용주는 선발, 승진 또는 기타 고용 결정에 인공지능을 활용하는 경우를 신중히 검토해야 하며, 이는 해당 테스트가 고용주의 작업 환경 및 적용 대상 직무에 부합하는지 여부에 대한 기존 검증 절차를 단순히 지속하는 것에 불과하다. 적절한 검증 연구 없이 부정적 영향을 미치는 선발 도구를 사용할 경우 심각한 결과를 초래할 수 있으며, 이는 인공지능이 주류로 자리 잡기 훨씬 전부터 존재해 온 문제이다.
인공지능 기술이 지속적으로 발전함에 따라, 법적 체계가 인공지능이 도입하는 특유의 미묘한 차이를 수용하고 해결하는 것이 필수적입니다. 그러나 수십 년간 고용법을 이끌어 온 공정성, 사생활 보호 및 안전 보장이라는 근본 원칙은 여전히 그 어느 때보다 중요합니다. 규제 기관과 고용주에게 주어진 과제는 새로운 기술 발전 속에서도 이러한 원칙이 유지되도록 보장함으로써, 인공지능의 혜택을 실현하는 동시에 근로자에 대한 강력한 보호 장치를 유지하는 것입니다.
고용주 여러분, 안도의 한숨을 내쉬셔도 됩니다. 기술은 변화하고 있지만, 여러분이 구축한 법적 준수 체계는 근본적으로 다시 세워야 할 필요가 없습니다. 오래된 것이 다시 새롭게 돌아왔을 뿐이며, 누구나 클래식을 사랑합니다.
[2]https://www.ecfr.gov/current/title-41/subtitle-B/chapter-60/part-60-3.