公司越来越多地使用聊天机器人来面试和筛选求职者,通常是蓝领工作。 但与之前的其他算法招聘工具一样,专家和求职者担心这些工具可能存在偏见。
聊天机器人越来越多地被公司用来面试和筛选求职者,通常是蓝领工作。但就像他们之前的其他算法招聘工具一样,专家和求职者担心这些工具可能会有偏见。
六月初,阿曼达·克莱普尔(Amanda Claypool)在北卡罗来纳州阿什维尔的一家快餐店找工作。但她面临着一个意想不到且令人讨厌的障碍:聊天机器人招聘人员的故障。
举几个例子:麦当劳的聊天机器人招聘人员“奥利维亚”批准了克莱普尔的面对面面试,但由于技术问题未能安排面试。温迪的机器人设法安排她进行面对面的面试,但这是她无法完成的工作。然后,Hardees聊天机器人让她去面试一位正在休假的商店经理——这几乎不是一个无缝的招聘策略。
“我出现在哈迪斯,他们有点惊讶。经营餐厅的工作人员不知道该怎么处理我或如何帮助我,“最终在其他地方找到工作的克莱普尔告诉福布斯。 “这似乎是一件比它必须的更复杂的事情,”她说。(麦当劳和哈迪斯没有回应评论请求。温迪的一位发言人告诉福布斯,机器人创造了“招聘效率”,并补充说“创新是我们的DNA”。
像Claypool遇到的人力资源聊天机器人越来越多地用于医疗保健,零售和餐馆等行业,以过滤掉不合格的申请人,并安排与可能适合这份工作的人的面试。麦当劳、温迪、CVS Health 和 Lowes 使用 Olivia,这是一个由总部位于亚利桑那州的 1 亿美元人工智能初创公司 Paradox 开发的聊天机器人。欧莱雅等其他公司依赖于Mya,这是一个由同名初创公司在旧金山开发的人工智能聊天机器人。(Paradox没有回应关于Claypool经历的评论请求。
大多数招聘聊天机器人并不像 ChatGPT 这样的当代对话聊天机器人那样先进或复杂。它们主要用于筛选有大量申请人的工作——收银员、仓库助理和客户服务助理。他们很简陋,问的问题相当直截了当:“你知道如何使用叉车吗?”或者“你能在周末工作吗?”但正如Claypool所发现的那样,这些机器人可能是有缺陷的 - 当出现问题时,并不总是有人可以求助。许多机器人需要的明确答案可能意味着一些合格的候选人被自动拒绝,他们可能不会像大型语言模型希望他们回答的问题。
专家说,这对残疾人、不精通英语的人和年龄较大的求职者来说可能是一个问题。美国平等就业机会委员会(EEOC)高级律师顾问亚伦·科诺帕斯基(Aaron Konopasky)担心,像奥利维亚和米亚这样的聊天机器人可能不会为残疾人或医疗状况的人提供替代选择或工作角色。“如果你正在与之交谈的是一个人,那么自然就有机会谈论合理的住宿,”他告诉福布斯。“如果聊天机器人过于僵化,并且该人需要能够请求某种豁免,那么聊天机器人可能不会给他们这样做的机会。
“这有点像Netflix根据你喜欢的其他电影推荐电影的方式。
Jeremy Schiff,RecruitBot首席执行官兼创始人
歧视是另一个令人关切的问题。用于训练人工智能的数据中的潜在偏见可能会将偏见和歧视融入其部署的工具中。“如果聊天机器人正在研究你需要多长时间才能做出回应,或者你是否使用了正确的语法和复杂的句子,这就是你开始担心偏见的地方,”华盛顿大学就业和劳动法教授Pauline Kim说,他的研究重点是人工智能在招聘工具中的使用。但是,当公司对潜在候选人被拒绝的原因不透明时,这种偏见可能很难被发现。
最近,政府当局出台了立法,以监控和规范自动化在招聘工具中的使用。2020月初,纽约市颁布了一项新法律,要求使用简历扫描仪和聊天机器人面试等自动化工具的雇主审核其工具是否存在性别和种族偏见。<> 年,伊利诺伊州通过了一项法律,要求应用人工智能分析视频面试的雇主通知申请人并获得同意。
评论留言