我向来不热衷预测,但可以肯定地说,关于人工智能的新闻将层出不穷——既有积极面,也有消极面。可以预见,人工智能要么已经成为,要么即将成为招聘流程的常规环节,甚至最终可能协助绩效管理。人工智能的应用有望减轻筛选申请材料乃至进行初试的行政负担,但同时也可能增加企业面临差异化影响诉讼的风险。
美国平等就业机会委员会(EEOC)近期就这一问题发布了指导意见。新指南依据1978年《雇员选拔程序统一准则》制定,该准则通常要求进行效度研究,以确保所测量的特征能可靠地反映岗位工作表现的优劣。
简而言之,当表面中立的雇佣实践(例如使用人工智能筛选申请者以确定是否达到最低标准)导致某类受保护群体(如四十岁及以上人群)或多重受保护群体组合(例如西班牙裔女性)被过度筛除时,即构成差异性影响。
首要问题——以及相关要点——在于如何判定影响是否失衡?一种简便的通用方法是80%规则(亦称五分之四规则)。假设申请群体中有100名男性和100名女性。人工智能判定其中50名男性(50%)和25名女性(25%)符合资格。 比较受保护群体与非受保护群体的录取率——25/50——两者差异达50%。由于该比率低于80%,表明存在统计学意义上的差异性影响。
然而,仅凭此可能不足以认定确实存在差异性影响。80%规则并不适用于所有情境,其他类型的测试或许更适合具体情况。 即便适用80%规则,若企业能证明选拔工具与工作相关且符合商业必要性,该差异化影响仍可能具有法律正当性。这意味着:当选拔措施未满足80%规则时,企业需采取更多或不同的测试手段,或进一步论证为何在出现此结果的情况下,其测试方法仍属必要。
另一方面,符合80%规则并不意味着自动免除法律风险。如果职位描述或其他招聘环节因受保护特征而排斥特定人群,筛选工具虽可能通过80%规则测试,但整体仍存在法律隐患或可能面临法律质疑。
此外,雇主不能仅凭供应商关于测试的陈述就试图规避差异化影响指控的责任。法律风险并非简单转移给供应商,雇主仍可能承担责任。无论何种情境,在筛选和招聘中正确使用人工智能都需要投入时间和资金来证明其使用合理性及结果的正当性。
一个相关问题可能是记录保留。近期一起指控HireVue公司开发的AI筛选工具不当使用的案件,其依据正是2021年的一份求职申请。在2019年《华盛顿邮报》的一篇文章中,HireVue曾表示标准的30分钟评估可提供多达50万个数据点,不过尚不清楚这是否与近期诉讼中涉及的工具类型相同。 为案件结案而保存长达两年或更久的海量数据,这本身就是巨大负担。除确保人工智能工具实质合规外,还需投入额外资源。即便掌握了所有关于选拔影响的数据,仍需有人能回忆起两年前的人工智能流程细节。在如此快速变化的领域,这可能构成重大挑战。
简而言之,你需要保持警惕并持续关注。正如新闻所揭示的,人工智能正经历着快速变革。请权衡在筛选和招聘中运用人工智能的优势,并将这种优势与可能因人工智能工具受到质疑而产生的额外投入进行对比。