人们一想到AI,就会觉得AI思维是一边倒的——思维能力强悍,但完全没有感受。这也是人们认为AI不可信任的部分原因。没人质疑AI的精密和先进程度,但我们对它的信任远远不够。我们信任他人,不是因为他们像AI一样聪明,而是因为他们和我们有情感联系。
人工智能可能会做出更好更快,甚至比人类更明智地决策。面对诸如“应该走哪条路回家”或“如何组织分销链”的选择时,AI的优越性尽显。但在攸关生死的情况下,AI能表现得更好吗?
我是研究科技的社会心理学家,上大学时曾在一家地球物理测量公司实习。我们在加拿大北部冰封的森林中寻找天然气。多数天然气田都很偏远,而且那里天气酷寒。很多地方只有乘坐直升机才能到达。
一个冬天的午后,某个气田的飞行员用无线电发送了一则坏消息:暴雨来袭,能见度骤降,飞行危险。我的队长伊恩必须做出一个困难决定:是让队员冒着失去性命的风险,坚持在暴风雨中飞行,还是饿着肚子在寒冷的旷野中过夜呢?他选择了后者。虽然野外寒风刺骨,但我对伊恩的决定充满信心。他从事森林消防员工作多年,野外生存知识丰富。可以说,我将自己的性命都托付给了他。
如果我的公司当时有使用AI的习惯,那晚伊恩可能就不是决策者了。计算机程序会权衡多种因素:天气、失去全体队员的成本、直升机坠毁的成本等等。智能机器也许得到和伊恩一样的结论,即最佳选择应该是待在荒野中过夜,但我会信任机器的决定,并觉得安全吗?
通过工作我发现,我不会将自己的性命托付给AI。缺乏信任阻碍了AI大规模进入劳动力市场,即便任何人的生命安全都不会受到威胁。
我的研究调查了人类如何了解其他人、动物和计算机的想法,这些想法往往比我们想象中更含糊不清。我们永远都不能直接体验到他人的想法和感受,所以只能尽最大能力猜测以下问题的答案:你的宝贝对你的爱,像你对他的爱一样深吗?你的老板笑了,但她真的开心吗?你的狗调皮捣蛋时被你抓到,会感到不好意思吗?
生物体的想法不容易理解,但计算机的思维活动更难以解释。“深蓝”(Deep Blue)曾在国际象棋比赛中打败加里·卡斯帕罗夫(Garry Kasparov),但它是想取得胜利还是按照程序设定取胜的呢?谷歌提示我们下班回家的最佳路线,但它真理解通勤意味着什么吗?Netflix推荐了我们可能喜爱的电影,但它关心我们的快乐体验吗?
人们一想到AI,就会觉得AI思维是一边倒的——思维能力强悍,但完全没有感受。当前技术的确如此——谷歌和Netflix不能恋爱或享受巧克力的味道。但真正限制AI,或者至少可以说限制AI在劳动力市场发挥更大作用的是,人们认为机器人永远都不会有感受。
这也是人们认为AI不可信任的部分原因,在很大程度上还影响到了AI的普及。员工会信任只从职能角度认识他们的机器吗?他们愿意被视为有特定技能组合的工人,还是有自身期望和担忧的个人?
建立对团队成员的信任起码需要三个要素:互相关心、共同的脆弱感和对能力的信任。互相关心即明白你的队友在乎你的身心健康,这可能是信任的最基础组成要素。如果某排长准备冒着被子弹击中的风险,深入敌后营救自己的战士,这一决定从功能的角度看并不明智。但和“理性的”AI系统不一样,他选择“不理性”的行动路线,而正是这一选择帮助他赢得全排战士的信任,进而提升了团队整体表现。
从日常生活角度看,当我们遇到事业和晋升危机时,仍然希望上级和同事视我们为同类,而非一个巨大优化问题的可变因素。我们不希望自己只是库存明细表中的某一排数据。
我们不相信AI,原因不仅在于AI似乎缺少情商,还因为它不会有脆弱感。如果人类在工作中犯错,就可能被炒鱿鱼、扣掉奖金,甚至死亡。但在AI的工作环境中,即便专业决策系统错误地推荐了一个行动方案,排除了更好的方案,计算机也不会受到处罚。AI系统只用别人的命运作赌注,自己从来都置身事外。
建立信任的第三个阻碍反而是AI的优势:计算和预测的超能力。我们亲眼看到AI在数秒内完成大型运算,或预测股价浮动后,立刻就会对AI的能力心服口服。可惜超能力也有局限——AI只能在特定条件下才能有优秀表现。如果你超过AI的能力范围使用它,效果必然不理想,比如所有家庭成员共用同一个Netflix账号,或要求谷歌预测恋爱结果。
最近,我在和海军研究办公室(美国国防部下属机构)官员的谈话中了解到,对技术一窍不通的海员曾经如何操作AI系统。开始他们怀着敬畏之心接触到AI,以为AI可以成功完成每一项工作。但后来系统犯了在人类看来极其愚蠢的错误,于是海员不再用AI完成任何工作,甚至连AI擅长的系统化工作也不交给它了。要建立信任,AI必须表现出自信,最好还能表达它对失败的害怕。
没人质疑AI的精密和先进程度,但我们对它的信任远远不够。这个问题之所以重要,是因为现在很多行业的成功都要求团队内部成员之间有深厚的信任。不论你在石油钻井平台上作业,还是军队中服役,信任你的队友都可能是攸关生死的事。在危险系数较低的商业环境中,信任是左右交易或项目成败的关键因素。我们信任他人,不是因为他们像AI一样聪明,而是因为他们和我们有情感联系。
但这不代表AI毫无用处;恰恰相反,这说明AI是解构性思维,而且目标明确,为达到尽善尽美而接受训练。它和全面发展的人类头脑有很多不同之处——人类能够同时理解语言、解决问题并感知其他人的感受。
如果我今天还在加拿大北部森林做测量工作,可能还不会将自己的性命托付给计算机,但我会用AI查天气,决定我们当天早晨不冒险外出工作。我庆幸有一个人类队长,但也希望计算机从一开始就帮我们防患于未然。
关键词:AI
库尔特·格雷 | 文
库尔特·格雷是北卡罗来纳大学教堂山分校心理学和神经科学副教授。他在哈佛大学获得博士学位,研究心灵感知、道德判断、社会动力学和创造力,也是屡获殊荣的研究人员、教师。他曾与丹尼尔·魏格纳(Daniel Wegner)合著《头脑俱乐部:谁思考,什么感受,为什么这很重要》(The Mind Club: Who Thinks, What Feels, and Why It Matters)。
刘筱薇 | 译 牛文静 | 校 李全伟 | 编辑
评论留言