去年,亚马逊因发现其机器学习算法存在重大缺陷而将其废弃——该人工智能系统存在性别偏见。这款机器学习工具旨在分析简历,并将潜在应聘者与亚马逊现有员工进行比对。该算法设计初衷是筛选出100份简历中的前五名候选人。
问题在于软件开发者及其他技术岗位本就存在性别差异。因此,当人工智能工具分析亚马逊过去十年招聘模式时,它自我学习形成了偏向男性的倾向。亚马逊最终废除了该工具。
亚马逊的人工智能凸显了机器学习工具的一个重要局限——这些工具的有效性完全取决于所输入的信息质量。虽然人工智能能够快速高效地筛选潜在求职者,但此类算法却可能无意中强化招聘过程中的歧视现象。 在亚马逊案例中,技术类职位的男性申请者比例显著高于女性。该算法错误地将性别差异解读为亚马逊的招聘偏好,导致系统非但未能突出合格女性候选人,反而将其筛选出局。
如今雇主们拥有各种技术工具可供使用。Monster.com和Indeed.com等网站发布职位空缺并吸引大量求职者。雇主们正转向技术工具以缩短招聘周期并降低招聘成本。然而这类技术工具的设计初衷是模拟人类决策过程。 因此,当工具依赖不准确或存在偏见的数据时,便可能无意中对女性或少数族裔群体造成歧视。研究还发现,技术工具的歧视性表现更为隐蔽。例如,某雇主为延长员工在职时间,发现居住地离公司越近的员工在职时间往往越长。但根据居住距离筛选求职者时,却会导致某些少数族裔候选人被过度淘汰。
根据《1964年民权法案》第七章及各州和地方的类似法律,雇主有责任确保以非歧视性方式筛选求职者。 因此,若您正在使用或考虑采用技术工具筛选求职者,应采取措施确保这些工具不会因性别、种族或其他受保护群体身份而过度筛除候选人。仅要求技术工具避免歧视少数族裔或女性可能不够充分,因为此类工具会试图识别符合您现有招聘惯例的候选人。使用技术招聘工具时可参考以下建议:
- 不要完全依赖技术招聘工具。大多数工具会对候选人进行排名。雇主应审查排名较低的候选人,并基于非歧视性标准进行独立评估。
- 请定期审查并更新提供给招聘工具的数据。确保招聘工具所依赖的数据不反映任何歧视性招聘行为。
- 独立审核招聘工具生成的结果和排名,并根据需要进行适当调整。
随着时间推移,这些基于技术的招聘工具很可能会不断改进,有望实现对求职者进行无歧视偏见的筛选。但在技术尚未臻于完善之前,雇主应采取措施,确保受保护群体成员不会因技术招聘算法的使用而遭受不比例的筛选。