Amy女士接受人工智能视频采访
人工智能筛选技术,比如单向视频面试,可能会让一些高素质的求职者得不到应有的面试机会。随着企业越来越依赖人工智能驱动的招聘平台,许多高素质的候选人发现自己被裁掉了。
肢体的语言分析。直言不讳的评估。Gamified测试。简历扫描仪。这些都是公司用来用人工智能招聘软件筛选候选人的一些工具。求职者面对这些机器提示——人工智能决定他们是合适还是不合适。
企业越来越依赖它们。2023年底,IBM对全球8500多名IT专业人士进行的一项调查显示,42%的公司正在使用人工智能筛选“来改善招聘和人力资源”。另有40%的受访者正在考虑整合该技术。
企业界的许多领导人都希望人工智能招聘技术能够结束招聘过程中的偏见。然而,在某些情况下,情况正好相反。一些专家表示,这些工具不准确地筛选了一些最合格的求职者——越来越多的人担心,这些软件可能会淘汰最优秀的求职者。
纽约大学新闻学助理教授、《算法:人工智能如何劫持你的职业生涯并偷走你的未来》一书的作者希尔克·谢尔曼(Hilke Schellmann)说:“我们还没有看到很多证据表明这一点没有偏见……或者该工具能挑选出最合格的候选人。”她认为,这类软件对工作构成的最大风险,并不是机器取代工人的职位,而是让他们根本找不到工作。
数不清的伤害
一些合格的求职者已经发现自己与这些招聘平台存在分歧。在2020年的一个备受瞩目的案例中,英国化妆师安西娅·马鲁迪奥(Anthea Mairoudhiou)说,她的公司让她在疫情期间被解雇后重新申请她的职位。她是根据过去的表现和人工智能筛选项目HireVue对她进行评估的。她说,她在技能评估中排名很好,但在人工智能工具对她的肢体语言评分很低之后,她就永远失业了。(该公司在2021年取消了面部分析功能。)谢尔曼说,其他员工也对类似的平台提出了投诉。
许多筛选算法都是针对一种类型的员工进行训练的,这意味着拥有不同背景或资历的求职者可能会被过滤掉
许多筛选算法都是针对一种类型的员工进行训练的,这意味着背景或资历不同的求职者可能会被过滤掉。她补充说,求职者很少知道这些工具是否是公司拒绝他们的唯一原因——总的来说,这些软件并没有告诉用户他们是如何被评估的。然而她说,有许多明显的系统性缺陷的例子。
在一个案例中,一个被淘汰的用户提交了同样的申请,但修改了出生日期,让自己看起来更年轻。有了这个变化,他们获得了面试机会。在另一家公司,一名人工智能简历筛选员接受了该公司现有员工简历的培训,如果他们列出了“棒球”或“篮球”等爱好,就会给他们加分——这些爱好与更成功的员工(通常是男性)有关。那些提到“垒球”的人——通常是女性——被降级。谢尔曼说,被边缘化的群体常常“被忽视,因为他们有不同的爱好,上不同的学校”。
在某些情况下,有偏见的选择标准是明确的——比如年龄歧视或性别歧视——但在其他情况下,它是不透明的。在她的研究中,谢尔曼申请了一份呼叫中心的工作,由人工智能进行筛选。然后,她从雇主那边登录了。她在面试中得到了很高的评价,尽管她在应该说英语的时候说的是毫无意义的德语,但她在领英个人资料上的实际相关证书却得到了很低的评价。
她担心负面影响会随着技术的发展而蔓延。她说:“一个有偏见的人事经理可能在一年内伤害很多人,这并不好。”“但一种算法可能被用于一家大公司所有收到的申请……这可能会损害数十万申请人的利益。”“没有人确切知道伤害在哪里。”
“问题是没有人确切知道危害在哪里,”她解释说。而且,考虑到公司用人工智能取代人力资源人员节省了资金——人工智能可以在很短的时间内处理成堆的简历——她认为,公司可能没有什么动力去询问机器的问题。
一个有偏见的招聘经理可能会在一年内伤害很多人,这并不好。但是一种算法可能被用在一家大公司的所有申请中,这可能会伤害到成千上万的申请人。
从她的研究中,谢尔曼还担心筛选软件公司正在“匆忙”将不发达甚至有缺陷的产品推向市场,以满足需求。“供应商不会公开说我们的工具不起作用,或者它对人们有害”,而使用它们的公司仍然“担心会有一场针对他们的巨大集体诉讼”。
牛津大学互联网研究所(University of Oxford’s Internet Institute)技术与监管教授桑德拉•沃彻特(Sandra Wachter)表示,正确使用这种技术非常重要。
她说:“拥有公正公正的人工智能不仅在道德和法律上是必要的,而且还能让公司更赚钱。”“这是一个非常明显的机会,允许人工智能以一种更公平、更公平的方式被应用,这种方式是基于绩效的,这也增加了公司的底线。”
Wachter正在努力帮助公司通过共同创建条件人口差异测试来识别偏见,这是一个公开可用的工具,“作为一个警报系统,如果你的算法有偏见,它会通知你。”然后,你就有机会弄清楚是哪些(招聘)决策标准导致了这种不平等,并允许你做出调整,使你的系统更公平、更准确。”自2020年开发以来,亚马逊和IBM都在实施它的企业之列。
与此同时,谢尔曼呼吁政府或非营利组织在整个行业建立“护栏和监管”,以确保目前的问题不会持续下去。她担心,如果现在不进行干预,人工智能可能会使未来的工作场所比以前更加不平等。
评论留言