【名家论坛|余雅风 王朝夷】由技术伦理向法律规范演进: 国外人工智能应用规范研究综述

人工智能
后台-插件-广告管理-内容页头部广告(手机)

作者简介

余雅风,女,1963年生,浙江江山人,北京师范大学教育政策与法律中心主任,教授,博士生导师,博士,研究方向:教育法学;

王朝夷,女,1995年生,河北石家庄人,北京师范大学教育学部博士研究生,研究方向:教育法学。

摘要

人工智能技术引发各类伦理与法律问题,对人工智能进行规范已经成为世界共识。基于此,各国学者针对人工智能应用规范展开研究,呈现出从伦理规范研究向法律规范研究演进的态势。当前,国外人工智能应用规范研究已经取得多项共识,同时也存在诸多争议。主要共识包括三点:一是人工智能伦理研究的方向应为社会伦理,二是基于确定的人工智能伦理,研究重点应当进一步转向技术实现,三是人工智能伦理规范具有局限性,未经法律规范的人工智能具有侵权风险。现有争议主要集中在人工智能立法的重点问题、人工智能治理的重要方向、人工智能法律体系的构建取向上。主要争议问题包括:人工智能是否具有法律主体资格、人工智能应用侵权的法律责任、人工智能治理中的发展与规范冲突、人工智能治理中的预防与监管平衡、人工智能特殊法律体系构建的主要方向等。未来研究应当立足现有对伦理原则的共识和对重点法律问题的讨论,从系统视角设计人工智能法律规范体系,同时在方法上注意融入计算机领域的研究方法,强化人工智能的技术属性。

关键词:人工智能;人工智能应用规范;人工智能伦理;人工智能法律规范

引言

近年来,以大数据为基础的人工智能技术高速发展,在传媒、医疗、教育等诸多社会领域广泛应用的同时,也对传统道德伦理产生冲击,引发多种法律问题。随着人工智能应用中带来的各类社会问题,越来越多的学者意识到对人工智能予以规范的必要性,相关研究在世界范围展开。

从全球范围看,人工智能应用的伦理与法律规范问题已受到计算机、伦理学、法学、教育学、社会学等多领域学者关注,相关研究数量迅速攀升。自我国2016年发布《“互联网”+人工智能三年行动实施方案》以来,推进人工智能技术创新发展成为科技教育领域的重要趋势,学界对人工智能技术规范的研究也逐渐展开。从相关领域国内外文献的对比看,国外对人工智能应用的伦理与法律规范研究衔接人工智能技术的诞生,开始时间较早,研究所涉主题范围相对较广,研究成果相对更加深入;而我国学界受限于人工智能技术引入较晚的现实条件,相关研究处于起步阶段,虽快速发展,但相对缺乏系统性、层次性。因此,分析并总结国外相关领域的研究,对我国学界具有借鉴意义。

一、发展脉络:从技术伦理到法律规范

从主题上看,国外人工智能应用规范研究可以分为伦理规范研究与法律规范研究两个大类,其中又各自包含伦理学与法学范畴的相关主题。相关研究从伦理讨论开始,在伦理原则相对成熟且取得共识的基础上,进一步深入到对以伦理原则为基础的法律规范研究上,不同研究具有时间和内容上的相互关联性。

对伦理规范的讨论是人工智能应用规范研究的起点,最早可以追溯到20世纪70年代(如图1所示)。人工智能应用的现实问题引发诸多哲学家、逻辑学家的思考,经过半个多世纪的讨论与研究,经历了从人工智能伦理内容到伦理干预策略的逐步深入,初步形成了一些相对适应人工智能技术发展水平的伦理思考共识,从理论层面向技术层面融合。随着伦理讨论的深入,研究者发现,仅仅从伦理原则层面规范人工智能难以切实保障公民权利,相关研究开始向法律规范研究转向。

【名家论坛|余雅风 王朝夷】由技术伦理向法律规范演进: 国外人工智能应用规范研究综述

图1国外“人工智能”+“伦理”研究时间分布

人工智能应用的法律规范研究是在人工智能应用伦理研究的基础上进行的,从热门分支领域的法律规范研究转向一般法律规范研究,并在提出重点问题的基础上,进一步关注整体性问题。20世纪80年代起,人工智能应用的法律问题逐渐受到关注(如图2所示)。以信息法律学这一分支学科为基础,相关研究从人工智能应用的热门领域入手,探讨人工智能在具体社会应用中的法律问题。包括医学领域的法律责任、信息安全问题,电子艺术引发的网络空间中的知识产权问题和著作权问题、虚拟物品的盗窃问题、金融行业的新投资者范式引发的监管风险等。进入21世纪后,相关法律研究从人工智能应用的热门领域转向人工智能应用本身,对人工智能应用的一般法律问题展开讨论。相关研究关注人工智能应用的法律风险,并开始探讨人工智能的法律身份、法律责任问题,从而进一步对人工智能应用引发的相关法律问题进行体系化的讨论与设计。

【名家论坛|余雅风 王朝夷】由技术伦理向法律规范演进: 国外人工智能应用规范研究综述

图2国外“人工智能”+“法律”研究时间分布

二、现有共识:社会伦理及侵权现实

基于技术伦理研究开展较早的现实条件,对人工智能伦理问题的研究相对较为深入,相关领域经过多次观点上的发展与迭代,已就多个重点问题取得共识,强调人工智能的伦理问题侧重研究如何让人工智能符合人类社会伦理,并在此基础上确定了一系列重要伦理原则,从而进一步深入到伦理干预的层面。

但在人工智能法律规范研究领域,由于相关研究开展较晚,目前多个重点问题正处于争议阶段,现有共识主要集中于人工智能不加规范有可能侵犯多种公民权利这一开展研究的基本前提上,对于如何对人工智能进行法律规范的具体问题争议较大。

整体而言,人工智能应用规范研究领域现有共识主要包括三点:一是,人工智能伦理研究的方向应为社会伦理而非人工智能本体伦理。二是,基于确定的人工智能伦理,研究重点应当进一步转向其技术实现。三是,人工智能伦理规范具有局限性,未经法律规范的人工智能应用可能引发多种侵权结果。

(一)社会伦理取代本体伦理

对伦理内容的讨论主要回应人工智能应当遵循何种伦理的问题,经历了从本体伦理研究到社会伦理研究的转向。本体伦理研究关注人工智能作为主体的伦理问题,即人工智能的情感问题、人格问题。社会伦理研究关注人工智能作为工具应用于人类社会带来的伦理问题,即人工智能的道德性、公平性、透明性、可解释性、安全性等适用于人类社会的问题。

研究早期,相关文献主要关注人工智能本体伦理问题,即人工智能作为主体的伦理问题,包括人工智能是否有意愿、有情感、有道德、有独立人格等问题。

人工智能是否有意愿这一讨论是人工智能最早引发社会热议的话题。随着人工智能展现出越来越高超的计算能力,“人工智能取代人类”说逐渐引起社会关注,由此引发了多代哲学家及伦理学家的讨论,对人工智能和人类进行物种层面的比较。“机器人三大定律”可以看作这一时代公众对人工智能的代表性态度:必须通过限制人工智能为人类服务,避免人工智能统治人类。而随着越来越多计算机学者加入讨论,人工智能是否同人类一样具有统治欲引发公众反思,主流观点逐渐从“人工智能有意愿”转向“人工智能工具论”,人工智能的威胁从“统治威胁”转向“劳动力取代威胁”,越来越多的研究关注人工智能可能取代哪些行业,终极哲学问题从“人工智能是否会统治人类”转向“人工智能技术不断提升至可以大幅度取代人类工作的时候,社会应当根据什么来分配商品和服务”这一政治问题。

人工智能是否有情感是与人工智能是否有意愿高度相关的话题,同时也指向了人工智能的道德问题。彭罗斯认为,如果计算机有情感,那么计算机的意愿就可能被违反。从这一意义上看,计算机是使用者的奴隶,使用计算机就存在道德问题。但也有学者认为,道德问题不会存在于人工智能本身,只能存在于人类与人工智能的关系中。由于道德是一个社会问题,当社会只有一个个体时,道德是不会被违反的。人工智能本身没有道德问题,道德问题必然是人类社会的产物。

而随着关于人工智能的伦理与哲学探讨越来越深入科技本身,人们对人工智能的理解越发深刻,同时,人工智能技术发展的限制也冷却了对人工智能独立人格的讨论。强人工智能、超人工智能短期内难以实现,在很长一段时间内,人工智能都只能作为人类使用的机器存在。基于此,人工智能的伦理讨论从本体伦理转向社会伦理。

社会伦理研究关注人工智能应用是否符合、如何符合人类社会的伦理要求。基于人工智能到底是主体还是工具的不同观点,对人工智能的社会伦理研究也可以分为两派。一派伦理研究基于人工智能具有本体性的观点,强调人工智能和人的对比,关注人工智能作为主体可能带给社会的伦理影响。另一派伦理研究以在人工智能长期必将作为工具为逻辑起点,关注人工智能应用作为工具可能带来的社会风险。

主体论视角的社会伦理研究关注人工智能与人类智能的优劣势对比,并据此讨论可能的伦理问题。当前的共识在于,人工智能能够在计算能力上超越人类智能。但分歧在于,对于创造性、情感性、精神性工作,人工智能是否能够取代人类智能。一些学者认为,人工智能可以用于帮助人类学习或执行简单任务,为人类提高效率、节省时间,但创造性工作作为精神性工作不会被取代,需要依靠人脑。但也有一些学者发现,人工智能已经应用到艺术等具有创造性的领域。人工智能能否帮助人类解决终极数学难题,实现物理理论的突破值得探讨。更有学者认为,无论人工智能是否会超越人类智能,人工智能的安全问题都是人工智能伦理的核心问题。

工具论视角的社会伦理研究关注人工智能作为工具可能为人类社会带来的伦理风险,包括人工智能直接引发的伦理问题与人工智能通过收集数据间接引发的伦理问题。

直接伦理问题指的是人工智能应用中由其算法导致的潜在风险,其核心在于,机器学习和深度学习的算法是不透明的、不可解释的,其结果是由数据决定的,人工智能拥有其自身学习、推理的过程,其如何获得结果、如何做出决定的过程是一个“黑箱”,程序设计者难以了解。这进一步意味着人工智能主导下的制度具有偏见、歧视和不公平的风险。比如Brennan等人发现的指南针系统的歧视,黑人被告比白人被告更有可能被错误地判定为有较高的再犯风险,而白人被告比黑人被告更有可能被错误地标记为低风险。机器学习算法的数据依赖性会放大现实世界中存在的社会不公。不透明的算法系统应用得越广泛,其使用大量数据来促进各种敏感应用的决策范围越广、影响越强。人工智能对经济安全、就业结构和社会稳定具有多重影响,对现行法律和社会伦理构成挑战。

间接伦理问题指的是人工智能应用中通过收集并分析用户数据带来的数据隐私侵权风险。数据隐私问题早在人工智能技术兴起之前就广受关注,在网络、大数据广泛应用的时代引发争议性讨论。人工智能依赖于收集使用者信息并分析使用者特征的算法,涉及数据安全与隐私的问题。研究发现,学习者对跟踪和分析算法的认知和接受程度缺乏关注。一项对国家科学节活动参与者的调查中显示,对于教育领域最先进的人工智能技术,77%的参与者担心他们的数据的使用,但在学习系统中,仅有不足8%的成年人对数据追踪感到不适,63%的受访儿童感到不适。这种数据的收集与使用涉及到的数据隐私风险并没有得到产品使用者的充分认识,反而在“知情同意”这一法律概念的掩护下更被忽视。

基于以上伦理问题的研究结果和人工智能伦理问题属于社会伦理的基本前提,学界对人工智能应用的伦理原则展开研究,并就人工智能应当遵循的社会伦理取得基本共识。相关原则包括安全、公平、可解释、有效、透明、问责、隐私、多元等,并已在多国及组织的政策文件中得到确认。

(二)已确定的社会伦理需要技术实现

在对伦理原则问题取得基本共识的基础上,伦理干预研究在社会伦理研究的基础上进一步关注如何将这些伦理原则融入人工智能的研究与应用。

为解决人工智能应用带来的伦理问题和挑战,越来越多的研究者关注如何将伦理要求融入人工智能研发与设计,包括两个主要途径,一是对人工智能产品进行伦理设计,二是培养工程师的伦理意识,提升伦理设计的能力。

首先,必须对一些发展尚不成熟、容易引起安全问题与社会争议的技术的应用范围进行限定,限制人工智能的自主程度和智能水平,建立人工智能安全标准与规范,深入讨论并提出一套具有技术操控性和价值合理性的规范体系,如秩序、安全、平等、正义、高效等价值。由于算法系统本身的设计及特点决定了算法做出的分析、判断等结果的方向,其应用范围越广,社会影响越大。因此,人工智能必须融入人本主义的思想,把人类福祉放在发展的核心位置。一派学者关注教育软件与人工智能的非功能设计需要(non-functional requirements),即算法设计中的伦理与道德原则体现。需要考虑的原则包括多元性(diversity)、公平性(fairness)、透明度(transparency)、问责机制(accountability)、可解释性(explainability)等。

其次,人工智能能否符合伦理标准与规范,与工程师的伦理意识和设计能力高度相关。这就要求培养工程师的伦理意识,同时提升工程师实现伦理目标的设计能力。大量关于工程伦理的论文研究工程师对其产品负有何种伦理上的责任,并对如何培养工程师的伦理意识展开讨论。非功能设计需要越来越多地纳入软件工程师的专业培养训练中,软件工程师的多层次伦理学培养受到重视,越来越多的研究者关注如何增强软件工程师的伦理观念与水平。人工智能技术研究人员和设计者应接受人工智能伦理教育与培训,成为具有道德意识的新一代软件开发人员,利用隐私保护技术或提供用户同意服务,使用人工智能风险管理、问责制和人工智能自我监控等方法,防止应用对个人数据进行不必要的访问,避免出现算法偏见和人工智能的滥用,保障使用者对应用的自主权和控制权。

(三)未经立法规范的人工智能可能引发侵权结果

尽管人工智能伦理研究已经取得普遍共识并应用到实践层面,但人工智能伦理对人工智能的规范作用仍然有限。在人工智能应用的伦理研究发展至干预策略层面后,越来越多的学者发现仅通过伦理研究解决人工智能应用的伦理问题是缺乏实效性的,仅能从内部视角解决伦理问题,但无法从外部进行管理。切实解决人工智能伦理问题,必须设置具有强制力的规范,管理、限制人工智能的应用范围,从而保障人类在使用人工智能时的权益最大化。这就要求必须对人工智能应用法律问题展开研究。

20世纪80年代起,人工智能伦理研究领域关注度降低,人工智能应用规范研究向法律规范研究转向。在早期的人工智能法律规范研究中,一个基本共识是,人工智能应用中存在多重法律风险,未经立法规范的人工智能可能侵犯多种公民权利,对人工智能立法规范具有必要性。

人工智能应用的法律风险主要是指人工智能应用过程中可能发生的侵权行为及其引发的侵权结果,包括人工智能直接侵犯公民权利的问题、人工智能计算结果引发的其他侵权问题、人工智能使用数据中带来的数据隐私与信息安全问题等。

人工智能直接侵犯公民权利是指人工智能做出的行为本身侵犯了公民权利,包括机器人伤害公民人身安全、艺术类人工智能的剽窃问题等。一方面,有形的人工智能产品,如运动机器人、战争机器人、医疗机器人、无人驾驶汽车等,在执行任务时可能与人产生肢体冲突,导致公民人身安全受到伤害。另一方面,人工智能的应用显著改进了自然语言处理模型,为电子艺术的繁荣带来了可能,同时也引发了人工智能应用在大学中可能衍生的剽窃问题和电子艺术是否具有知识产权及其归属问题等。

人工智能计算结果引发侵权问题是指人工智能本身没有侵犯公民权利,但其计算的结果在使用中造成了对公民权利的侵犯,尤其表现为学校、政府、审计机关、矫治机构等组织应用人工智能时,依据其计算结果做出的行为侵犯公民权利的情况。人工智能本身潜在的道德伦理问题在其主导下的制度中具有进一步扩大的风险。机器学习算法的数据依赖性会放大现实世界中存在的社会不公。不透明的算法系统应用越广泛,其使用大量数据来促进各种敏感应用的决策范围越广、影响越强。人工智能对经济安全、就业结构和社会稳定具有多重影响,对现行法律和社会伦理构成挑战。比如,审计领域,直接引进人工智能执行审计工作时,人工智能的不可解释性可能导致审计失败;教育领域,学校通过人工智能处理学生数据并进行决策时,其客观性与公平性受到质疑,可能引发公平问题;医疗领域,在医务人员负有注意义务的前提下,其依据人工智能医疗产品作出的判断,可能引发医疗过失。

数据隐私与安全问题早在人工智能技术兴起之前就广受关注,在网络、大数据广泛应用的时代引发争议性讨论。人工智能依赖于收集使用者信息并分析使用者特征的算法,涉及数据安全与隐私的问题。搜索引擎、社交媒体和在线购物平台肆意收集用户信息并分析的算法,引发公众对数据隐私与安全的强烈不适,导致大量数据安全案件、数据隐私侵权案件发生。同时,这种对数据的收集与使用通过强制“知情同意”获取合法保护,实际上对用户的数据隐私与安全造成了损害。 

三、争议重点:从重点问题到系统

构建的多重分歧

尽管学界对人工智能伦理研究取得的共识对人工智能立法原则具有重要参考意义,但具体如何对人工智能进行立法规范,仍然存在许多立法技术中的细节问题有待进一步研究。从法律运行的角度看,法律的起点是立法,故法律应对人工智能的挑战首先是立法应对。自21世纪对人工智能的法律规范研究从特殊领域进展到通用领域后,学界首先展开了对人工智能法律规范中重点问题的讨论,包括人工智能的法律主体资格、人工智能应用的法律风险和规避风险的相关措施等。不同学者对以上问题进行深入分析,但分析方向存在较大差异,且难就相关问题取得普遍共识。从法律主体资格、法律责任等细节问题、重点问题到人工智能治理的基本方向,再到如何构建教育人工智能法律体系,学界存在数种不同派别的观点,有待进一步研究讨论。

(一)人工智能是否具有法律主体资格

人工智能是否具有法律主体资格是对人工智能立法规范进行探讨的前置问题。探讨如何规范人工智能应用,必须先对人工智能的法律人格、法律主体资格进行讨论。学界关于这一问题的态度存在较大分歧。

一派观点支持将人工智能视为法律主体,并针对人工智能法律身份提出一系列新法律主体概念。从合理性上看,这种观点主张法律人格是一种虚构的框架,而并非实体的自然人,法人的设立即证明这一点。人工智能可以在一定的行为或价值判断中发挥主导作用,因此,应当跳出自然人与法人的限制,设立第三类法律主体,赋予人工智能法律实体地位。有学者认为可以根据人工智能的行为能力、权利能力,在对具体权利能力进行要件分析的前提下,赋予人工智能一定合法权利。比如,对于代理这一法律事项,人工智能满足其四大要件:理性代理、互动代理、法律责任、法律人格,因此可以作为代理人。基于人工智能法律主体资格的合理性,许多学者进一步提出了人工智能的法律身份概念,包括“机器人(Machinelike man)”“类人机器(Manlike machine)”“智能机器(Intelligent machine)”“电子人(Cyborg)”等。

另一派学者持观望态度,认为这一问题的回答应当与人工智能的发展程度相关,对于不同发展程度的人工智能,其法律主体资格问题应当分开讨论。当前,人工智能尚处于弱人工智能阶段,不具有主体性,因此,当前阶段,人工智能不具有法律主体资格。基于这一前提,人工智能法律人格问题不是该领域立法最紧迫的问题,监管该领域异常发展及其引发的问题更具紧迫性。但是,对于未来可能发展出的强人工智能、超人工智能等达到一定门槛标准的人工智能,不应当按照人工智能法律人格的狭义定义来理解,而应该让它们也享有道德和法律上的权利。

但整体而言,法学领域对于人工智能具备法律主体资格这一观念并不看好,大部分学者倾向于否定人工智能的法律主体资格,这一点也在欧盟发布的《人工智能与民事责任》中初次得到来自官方文件的认可,但也仅限于民事领域,刑事领域尚无。

(二)对人工智能治理方向的讨论

对于人工智能可能引发的法律风险,如何从立法上规避这些问题是相关法律研究探讨的重点。学界对于如何规范人工智能、在何种程度上规范人工智能产生观点分歧,主要分歧包括以下两点:

第一个主要分歧点在于,对人工智能应用的监管,到底是加强还是保持适当平衡?部分学者要求加强对人工智能应用和对人工智能产品使用者的监管。应跳过任何授予人工智能机器人完全法律人格的假设,重点考虑在合同和侵权法中为人工智能机器人的活动制定新的问责(accountability)和责任(liability)形式的可能性,通过法律试验的方法来测试新的问责和责任形式之后再推广。要求建立以大企业为中心的自律法,对公民私生活进行保护,并通过国家规范对企业的自律进行监管。私生活的保护和禁止歧视是国家对巨大人工智能企业的要求和监视。同时,设立专门负责处理人工智能使用监管的国家机关,以及保护国民基本权利和算法透明性等规制机构。但也有部分学者认为,对人工智能的过度监管很有可能浪费、损害人工智能动态效率的潜力,因此需要取得人工智能发展与人类控制的平衡。

第二个主要分歧点在于,防治人工智能侵权,预防为重还是治理为重?即制度设计上是侧重对道德的促进与加强,还是侧重立法明确法律责任?

针对预防还是治理问题,预防派认为,尽管刑罚是维持社会安全稳定的必要暴力措施,但是,提供比犯罪更有吸引力的替代品是最好的保护方法。比如,当社会成功地按照个人贡献的比例奖励个人,并按照不诚信行为的比例评估成本时,人类道德就是一个稳定的自我纠正系统。因此,加强对人工智能应用设计的道德算法开发与促进在立法中更为重要。治理派认为,必须要对人工智能产品造成的侵权结果提供法律救济,明确侵权行为中相关主体的法律责任。

在治理派基础上,由谁来承担法律责任,不同学者观点不一,主要分为机器人责任、设计者责任、使用者责任、无责任四类:第一类,机器人责任派认为强人工智能具有法律主体资格,有意识的人工智能具有道德代理能力,应当在侵权行为中承担机器人责任,同时也意味着设计者应当设计具有自主道德系统的机器人。而基于人工智能工具论前提(即工具本身没有独立的意志)的学者则认为,工具的负责人对使用该工具所获得的结果负责,可以参考习惯的法律规范,人工智能的侵权行为适用替代责任和严格责任。但是,由谁承担法律责任则引发争论,产生设计者责任和使用者责任的分歧观点。第二类设计者责任派认为,算法工程师应当保证算法的伦理合范,因此应当为人工智能的侵权行为承担法律责任。在缺乏对人工智能的直接法律监管的情况下,可以适用《联合国国际合同使用电子通信公约》第12条,为其编制计算机程序的个人(无论是自然人还是法律实体)最终应对机器生成的任何信息负责。第三类使用者责任派认为,选择使用人工智能产品对他人权利造成侵害的,应当由使用者承担法律责任。尤其是在行政规制中,政府权力下人工智能和算法的运用属于限制国民权利或义务的侵害性行政行为,应根据法律保留原则,通过立法为人工智能算法的行政提供法律依据。基于人工智能算法的偏向性和算法的不透明性,很难证明人工智能的行政决定是否是主观的违法行政行为,也很难证明AI的行政决定和损害之间的过失责任。因此,必须要修改行政法律,明确人工智能在使用行政权力时的国家赔偿责任,确保公民在行政权力下的权利救济。还有学者介于工具论和主体论之间,认为人工智能既不能成为法律主体,也不能单纯地视为工具,由此提出了第四类无责任观点,即无人能够预见人工智能的全部可能的行为,因此应广泛采用保险作为解决方案。

还有一派学者超脱人类社会法律的范畴,针对人工智能设计了全新的法律语言。对于下一代机器人来说,其自主性较高,应当通过另一种法律机器语言进行规范。根据人类行为的四种限制(法律、社会规范、市场、自然),有学者提出,人类法律并不是限制机器人行为的唯一方式,机器人法律应当以机器人代码为主。基于这一前提,有学者提出,可以通过输入道德指令、强化人类与机器人通信界面和明确责任顾问三个方向设计机器人法律。有学者将以上三个方向进一步明确为强化机器人代码的三个方面:一是,准确评估变化情况和正确应对复杂现实世界条件的持续能力;二是,以人类可预测的方式立即作出保护性反应,以减轻与基于语言的误解或不稳定的自主行为相关的风险;三是,明确的交互规则集和可应用于各种下一代机器人的法律体系结构,实现对人工智能的限制。

以上分歧不仅在研究领域引发讨论,同时表现在不同国家的政策取向上。从当前少数对人工智能进行规范的国家政策看,人工智能的治理方向已经展现出两个不同的派别:一是欧盟倾向的法律责任规范派,整体表现为否定人工智能的法律主体资格,要求相关主体承担侵权法律责任上,但目前只涉及民事法律责任范畴,对其他问题未进行明确;二是美国倾向的人工智能发展派,即人工智能法律规范不应当过度限制人工智能技术发展,要求政府努力避免人工智能规范阻碍人工智能创新与增长。当前,这一发展倾向在2022年10月最新发布的《人工智能权利法案蓝图》中也展现出了修正倾向。学界对此问题的讨论也在进一步分化中。

(三)应当构建何种特殊的人工智能法律体系

随着对人工智能研究和人工智能法律问题研究的逐渐深入,越来越多的学者意识到,人工智能的法律问题并不仅仅是法律风险、法律身份、法律责任等个别的法律问题,而是涉及到整个法律制度、体系的更新。但是,到底为人工智能设计怎样的法律系统,不同学者提出了不同设计方向。

从机器人发展趋势看,人工智能的自主性正在不断提高,这使得人工智能的法律主体资格面临新的讨论。有学者认为,在未来二十年内,机器人将能够适应复杂的非结构化环境,并与人类互动,以协助完成日常生活任务。与在隔离环境中辛苦工作的严格监管的工业机器人不同,下一代机器人将具有相对的自主性,因此,必须要针对下一代机器人将引发的安全问题设计新的法律体系框架。人工智能的法律人格问题、人工智能的权利、义务能力、计算机的道德价值、人工智能的政策、人工智能的安全问题,诸多相关问题不能切割来看,需要通过统一的思路进行制度设计。但是,这种设计不仅面临立法技术上的障碍,还有可能导致一系列重大的道德和法律影响。

不同学者通过类比不同事物,对人工智能的法律制度设计方向提出了建议。有学者将之与干细胞立法之争作类比,认为人工智能法律需要考虑什么是人、什么是法人、什么是法律主体、法律承认的主体具有哪些权利和义务等问题。有学者将之与动物道德、古罗马法中的外来者(自由个体)相类比,认为人工智能的权利必须和责任、义务一同明确,提出可以先赋予人工智能较低的法律地位和一定的权利,随技术完善带来的成熟人格地位提升,进一步提升其法律和道德责任的水平,赋予其更高程度的权利。

四、总结与启示

整体而言,国外人工智能应用规范研究经历五十余年发展,呈现出从原则到具体、从本体到应用、从重点到整体的趋势,初步形成了对人工智能伦理内容的共识,研究重点开始向伦理干预和法律规范转向。具体来说,即国外人工智能应用规范研究的趋势,表现为三点:第一,从抽象的伦理原则向具体的干预策略与法律规范转变;第二,从本体伦理内容向伦理干预应用转变;第三,从重点法律问题到整体法律系统转变。当前,国外研究已在人工智能的伦理内容这一问题上取得基本共识,以一系列社会伦理作为人工智能的伦理原则,进一步研究如何通过干预策略实现以上伦理。在伦理干预的同时,还以伦理原则为基础,进一步研究如何建立人工智能法律规范,提出人工智能法律规范构建中的部分重点问题,并初步对人工智能应用的法律规范进行系统性、整体性审视。

但是,当前国外人工智能应用规范研究尤其是法律规范研究中仍然存在诸多分歧,有待未来研究进一步探索。通过对已有研究的梳理总结和对研究发展趋势的把握,未来研究的重点在于立足现有对伦理原则的共识和对重点法律问题的讨论,从系统视角设计人工智能法律规范体系,同时注意融入计算机领域的研究方法,强化人工智能的技术属性。

首先,要在内容上转向人工智能法律规范研究,充分发挥现有伦理研究的基础作用,并从系统视角讨论人工智能法律规范中的重点问题。当前国外对人工智能应用的伦理研究已较为丰富,尤其是关于伦理原则的研究,已经在现实中得到确认。如,研究得出的“多元性”“公平性”“透明度”“可问责”“安全性”“福利性”“以人为本”等原则已在欧盟《可信赖人工智能伦理准则》、全球工会《道德人工智能的 10 条原则》、美国《人工智能应用监管指南》中得到体现。我国学者在进行人工智能应用的伦理干预研究及法律研究时,可参照上述伦理原则作为基础,展开进一步研究。如,如何从技术上实现已有伦理研究提出的伦理原则,如何提高技术人员的伦理意识,如何从立法上体现已有伦理研究提出的伦理原则等。另一方面,当前国外对于人工智能应用的法律研究虽然已有部分研究推进到系统构建的层面,但实际上,关于具体规范中的一些重点内容仍未达成共识,如人工智能的法律主体资格、人工智能应用侵权的法律责任、监管人工智能应用与推进人工智能发展的矛盾与平衡等。因此,我国学者在进行人工智能应用的法律规范研究时,可以就以上问题进一步展开讨论,并构建具体的、适用于我国现实环境的法律系统。

其次,要充分重视人工智能的技术属性,在未来研究中融入计算机领域的研究方法,避免对人工智能的规范研究成为普通的规范研究,与人工智能的技术性脱节。从当前研究看,“伦理”研究是“法律”研究的基础,“影响”研究是“伦理”研究的前提。而在“影响”研究中,大量理论文章缺乏数据证明与支持,缺乏对人工智能技术的深入理解与认识,呈现出与人工智能技术研发实践脱节的现象,主观性较强,被人工智能领域研究者诟病为“人工智能的外行研究”。相反,依据计算机技术论述的人工智能伦理更具有可实现性,更有可能在未来开展具有实效性的子研究。这类具有可实现性的伦理目标能够催生更多计算机领域研究者投入伦理研究,进一步促进伦理目标与技术实际的融合,从而构建完整的、相互连接的干预系统,进一步丰富伦理研究的内涵。比如,基于文献的验证性实验与探究性实验以其科学、坚实的数据基础,构建出具有系统性、整体性的伦理研究体系,成为干预策略研究的中坚力量;基于多次数据迭代设计的智能系统在应用中发现的问题,比一些主观的理论研究得到的问题更具有伦理研究上的实证意义;针对人工智能可解释性的研究,能够促进工程伦理领域的理论进步。因此,我国研究在分析人工智能的伦理问题时,不能简单地将之看作简单的伦理学问题分析,而要在科学技术伦理学的基础上,深刻认识人工智能的技术特点与本质,进行深度分析,确保提出的伦理目标具有技术上的合理性和可实现性。研究人工智能应用的伦理问题时,需要高度关注教育技术领域、计算机技术领域、软件工程领域关于伦理的实验研究,通过自然科学的研究方法,以跨学科的视角,真实反映 AI 在教育领域应用的伦理与规范需求,提高伦理与规范的客观性,真正实现创新推动与风险遏制。

因篇幅限制,已省略注释及参考文献。

原文详见《河北法学》2023年第2期。

后台-插件-广告管理-内容页尾部广告(手机)
标签:

评论留言

我要留言

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。