面对越来越强大的人工智能技术,未来的人类该如何与之相处?人工智能技术可以被信赖吗?“可信AI”到底从何而来,又将去往何方?7月9日,世界人工智能大会可信AI分论坛在上海举行,来自产学研的专家们就这些问题进行了深入的交流讨论。
论坛发布了《可信人工智能白皮书》,白皮书分析了可信人工智能落地路径,确定了从稳定性、可解释性、隐私保护、公平性四个维度评估人工智能,并对可信人工智能的未来发展提出了建议。
多位专家表示,要想实现可信的人工智能,不光要从技术角度出发,还需要有社会的视角。国家新一代人工智能治理专委会委员、联合国教科文组织人工智能伦理特设专家组专家曾毅认为,在需求、设计、研发、使用、部署等每一个环节都应该嵌入关于人工智能伦理的考虑,建立全流程多方共建的治理机制,这是实现可信人工智能的最重要的方面。
可信AI论坛现场。图自论坛主办方
四方面度量可信AI:稳定性、可解释性、隐私保护、公平性
中国信通院云大所所长何宝宏指出,如今,人类不仅面临基础设施的数字化,而且人的思考、控制甚至决策也越来越多地外包给了算法和人工智能。“在人工智能没有证明自己是值得信赖之前,我们还是不敢将我们的决策、思考和控制移交给人工智能,所以对可信任的人工智能的研究就形成了全球的共识。”他说。
可信人工智能在全球已有丰富探索实践。中国信息通信研究院院长余晓晖在会上介绍,20国集团提出了G20的人工智能原则,强调要以人为本,发展可信的人工智能,这一原则得到国际社会普遍认同。欧盟和美国也都把增强用户的信任、发展可信人工智能放在人工智能发展的核心位置。国内外的标准化组织也成立各种工作组,来推动可信人工智能的研究。
具体来说,“可信”到底意味着什么?可信AI的研究要解决什么问题?澳大利亚科学院院士陶大程指出,探讨可信人工智能,是因为人工智能开始落地,并在广泛的落地中出现了很多问题。他举例,如果在道路交通牌上贴一个小广告,无人驾驶系统就可能误判,着反映了人工智能安全性的问题。另外,由于缺乏可解释性,自动驾驶系统如果遇到问题,驾驶权交付给驾驶员时就会产生困难,因为驾驶员无法在短短几秒钟之内对道路做出判断。
此外,他还指出,当前人工智能还存在对数据和隐私保护的问题。例如,GDPR(欧盟出台的《通用数据保护条例》)中谈到用户遗忘权,当一个用户从人工智能的系统中离开之后,要把痕迹清扫干净,这不仅仅涉及对数据库的处理,而且对人工智能系统的模型提出了要求。人工智能还存在歧视的问题,人工智能要面向年轻人、老人、男人、女人,系统不仅要服务大众用户,也要对小众用户有支撑,让所有人享受到技术带来的价值。
澳大利亚科学院院士陶大程。图自论坛主办方
陶大程总结,这些问题涉及到稳定性、可解释性、隐私保护、公平性等问题。也就是说,“可信”需要有更细化的指标去衡量,在更具体的方向上去努力。“我们要想清楚从什么样的方面度量人工智能,不能你说它是可信的,它就是可信的,总得有一个标准。”他说。
他介绍,此次会上发布的《可信人工智能白皮书》确定了从四个方面度量人工智能的性能:稳定性、可解释性、隐私保护、公平性。这四个维度都分别对应一些技术手段去做评估和检测。他强调,这些特性并不是割裂的,而是有着内在联系,要想实现最终的可信人工智能,需要找到统一的综合治理框架,实现有效的可信治理。
京东探索研究院算法科学家何凤翔肯定了建立可信人工智能评估体系的重要性。“现在有一些被全行业认证认可第三方中立评测体系,给所有的产品做评测,合格的就给它一个合格的证书,让它可以上市。这样其实也能够帮助建立起消费者对这个产品的信任,建立起整个社会对人工智能的信任。”他说。
实现可信AI,技术视角远远不够,应有社会视角
曾毅认为,最新的人工智能技术进展模型,以他从一个技术研究人员的角度来看,都是不可信的。“所以为什么需要研究可信人工智能,现在人工智能的技术还不足够谈真正的可信,这(研究可信人工智能)是一个起点,这是从技术的角度来说。”他说。
他补充道,研究可信的人工智能,光有技术的视角还远远不够,还需要社会的视角。在他看来,构建人工智能模型服务于全人类时,在跨文化的交互过程中,文化之间互信最终会影响可信人工智能的全球化发展。“如何利用技术赋能跨文化的互信,在我看来是真正实现可信人工智能不得不做的事情,甚至是最后成功关键。”他说。
国家新一代人工智能治理专委会委员、联合国教科文组织人工智能伦理特设专家组专家曾毅。图自论坛主办方
曾毅强调,在可信AI的研究中,社会学、伦理学不容忽视。稳定性、鲁棒性(指在异常和危险情况下系统生存的能力)、可解释性等都是从技术的角度出发去评估一个系统是否可信,但现在人工智能作为赋能技术,一个产品或服务上线,一夜之间就会对社会产生巨大影响。但实际上,参加人工智能创新创业的人员可能对社会学、对伦理和治理的问题一无所知,因此可能造成一些后果。
如何从社会的视角实现可信AI?在曾毅看来,需求、设计、研发、使用、部署等每一个环节都应该嵌入关于人工智能伦理的考虑,建立全流程多方共建的治理机制,是实现可信人工智能的最重要的方面。
复旦大学类脑智能科学与技术研究院副院长王守岩也指出,现在人们谈可信AI,多集中在技术层面,社会层面谈得很少。他认为,应该从社会发展需求角度看技术在社会发展过程中的推动力,越重要的应该治理越早一些,越紧迫一些,越严格一些。“比如在线教育,我觉得它是一个非常紧迫隐形的影响,我们想想,几百万、几千万孩子在网上,被一个固化的模式进行教育,十年以后这些孩子他们会成为什么样的,是不是同一个模式出来的?我们需要考虑技术对社会、对国家的影响。”他强调。
清华大学国强教授聂再清用“爱”对可信人工智能做了总结。“AI的发音好像跟中文‘爱’连在一起,大家都期待AI有爱,我们做AI时必须要做到有爱。”他说。
采写:南都见习记者李娅宁
评论留言