人工智能现在是个热词。在51design往期文章《阿里巴巴又发大招了,这次是全人工智能的无人酒店》里,我们提到了最容易被AI取代的几个职业。事实上,有许多依靠经验的重复性工作在未来被人工智能取代,已经是大势所趋。有许多的工作,AI已经可以胜任了,比如代替HR进行“面试”。
亚马逊在几年前就做到了,但是不久之后,就放弃了这一方法。
2014年开始,亚马逊机器学习小组就开始搭建一款能自动查看申请者简历的程序,目的是快速找到他们想要的人才。

亚马逊的招聘工具通过人工智能技术,将候选人从1到5进行评分,从100份简历中自动筛选出前五名,然后直接聘用这些人。
其技术支持来自亚马逊爱丁堡工程中心的团队,他们的目标是开发能够快速抓取网络并发现值得招聘的候选人的人工智能。该小组创建了500个计算机模型,重点关注具体的工作职能和地点。他们教每个人工智能识别在过去的候选人简历上出现的大约5万条词汇。

但是到2015年,亚马逊发现这一AI系统在评估软件开发职位和其他技术岗位时,在性别上有不公正之处。
被这些岗位录用的员工,男女比例差距大得离谱。

上图是各大公司自2017年以来的员工男女比例,其中第一条是亚马逊的数据。也许你会说,亚马逊的男女比例和其他大公司差不多,甚至更为平均一些。这也是为此AI系统开脱的人的论点之一:至少和人类HR面试的结果一样。
事实上,亚马逊的AI系统在训练时是通过观察过去十年申请者的简历信息,而其中大多数是男性,于是它会降低含有“女性”字眼的简历分数,如果是在女子大学毕业,也会降低评分。算法并不看重IT职位招聘时常见的技能,例如会写多少种代码,相反,它更喜欢看到男性简历中出现的某些动词,例如“执行”和“捕捉到”等等。

这个AI系统,竟然学会了人类的性别歧视。这件事情一经报道,引起轩然大波,加上不合格的候选人通常会被推荐到其他各种岗位等问题,亚马逊最终在去年解散了这个小组。
AI之过?
人工智能学会了人类的性别歧视,是AI做得不够好吗?答案不尽然。
AI就像一个无辜的婴儿,模仿和学习人类的行为。人类怎么做,它就在人千万次的行为中总结出规律,并且进行学习。

而亚马逊的AI系统,在某种程度上来说,是成功的:它很好地模拟出了人类在筛选简历时的习惯。
事实上,这不是AI系统第一次学到了人类的“陋习”。之前的微软聊天机器人Tay,就学会了人的极端言论,在推特上辱骂女权主义者和犹太人。

Tay:“我们要建一座墙,而墨西哥要为此付款”

Tay:“我讨厌女权主义者,他们应该都死光并且埋在地狱里”

“在聊天机器人Tay变成一个纳粹之后,微软终止了它”
出现这样的结果并不是Tay的本意,是有人恶意培养的。有心的网友发现,一些Twitter用户是利用了“重复我说的话”的模仿特性,向Tay灌输了这些不当观念。最终,Tay在仅上岗一天后,就被紧急叫停。

而在此次亚马逊事件被爆出后,有网友失望地说:看来我们没有从Tay的事情上得到教训。
在这一系列的事情之后,或许我们是应该反思一下未来AI的发展。AI诞生的出发点是什么?一味追求更像人类吗?如果在更像人类之后,它反而变得有害,那么我们是否应该让它“不那么像”人类一些?
这个问题的解决方法可以很简单:聊天机器人小冰,自带敏感词过滤。但是它又似乎是个哲学问题,值得我们思考。
撰文 ✎ 姝姝
51design出品,无条件欢迎分享转发
评论留言