第十四章 医疗保健中的人工智能:医生、病人和责任
[德]弗辛娜·莫尔纳尔-盖布尔(Fruzsina Molnár-Gábor) 撰(1) 王黎黎 译(2)
人工智能正越来越多地进入医学研究和日常保健领域。然而,为患者提供明显益处的同时,不仅伴随着人工智能系统应用的一般局限性,而且伴随着关于疾病和健康概念操作化具体特征的挑战。传统上,这些挑战已经在医学伦理学和民法的医患关系中得到解决。在人工智能被用于医疗环境的情况下,可能出现错误的决定(以及谁对这些决定负责的问题),这就要求有区别地执行医疗伦理原则和责任法的分级模式。然而,在当前医疗使用人工智能的背景下,对包含病人和使用者相关义务的领域进行更仔细的审查后,尽管责任规则在责任分配方面存在一定程度的差异,但最终,那些受影响的人通常会自行处理任何人工智能所带来的风险和损害。医生在这一切中所起的作用尚且不清楚。在应用基于人工智能的医疗系统时,将医患关系视为广义的合同义务,可以帮助明确医生的作用,并以可持续的且对病人友好的方式确定他们的职责。这有助于在人工智能应用的背景下加强他们既定的道德和法律地位。
一、引言:医学中的人工智能
1. 人工智能在医学中的应用及其优缺点
人工智能在当今医学中已被广泛应用,其应用范围涵盖了医学研究、医疗保健的各个领域,包括药物发现、筛选、手术、慢性病管理和一般医疗机构。1然而,它目前最为频繁和测试的应用领域是医疗保健的核心:疾病检测,特别是通过医学成像。2在人工智能的帮助下产生的X射线、CT、MRT或共焦激光扫描显微镜图像的评估,侧重于通过划定生物学和医学上可区分的空间区域(如病变组织和健康组织之间的区分)进行异常检测和分割,随后按疾病类型进行分类。人工智能已经在所有这些工作过程中取得了很大成功,其诊断结果水平常常超过医生和放射科人员。3
除了为病人提供明确的医疗保健的相关益处外,4人工智能目前的医疗应用更进一步的益处,初看起来,似乎与其他领域没有区别。主要益处包括节省时间(根据个别情况,也可以提高治疗的成功率)、降低成本和增加医务人员从事人工智能无法开展的活动的能力。5目前,在其他应用领域的主要局限性也众所周知,因为它们与计算能力、分析系统互操作性、分析标准化、结果可靠性或数据质量等方面的局限性、数据保护(参见本书马奇的文章)和数据安全,以及决策中的透明度和公正性问题(另参见本书威施迈耶和蒂斯比克的文章)有关。6
然而,在医疗保健生死攸关的常规情况下(经常也在医学研究中),实现利益和克服局限因挑战而变得更加复杂,这些挑战涉及如何理解在任何医疗系统(包括基于人工智能的医疗系统)的应用中作为核心主题的疾病和健康。
人工智能追求的目标是将人类的感知和心理表现系统化,并通过技术手段实现。由于疾病和健康的概念结合了描述性7和规范性特征,它们不是客观的或完全可概括的数量或特征,而是建立在价值判断的基础上,这些价值判断与受影响者的个人背景和医学本身的社会文化背景有关。由于它们的概念结合了物理、心理、社会和文化元素,它们在应用人工智能时就会面临与可操作性相关的挑战。从根本上讲,基于对主观幸福感8的理解,考虑到现在或将来需要帮助的病人的自我评估是医学上的一个重要挑战。与受影响者疾病和健康概念操作化相关的挑战日益加剧,是因为以人工智能为基础的医疗系统缺乏在传统医疗环境中通常用来克服这一挑战的关键公式,例如实现人类特性的能力,如同情心和同理心,或社会“知识”的充分解释和使用,以及基于多层次的不可测量的信息之间的交流,而且必须创造性地纳入医疗保健和相关规划。9此外,这些公式还受到狭窄医学背景之外的因素的影响,例如对疾病和健康概念的政治和社会评价,它们融入了各自的文化背景,因此其普遍性受到限制。
2. 医学中人工智能的一个特殊定义:证据还是理由?
人工智能通常是由其交付的结果来定义的,根据这一定义,在医学环境中,基于人工智能的系统应该在更广泛的意义上助力于医学问题的解决。这也由人工智能的定义所传达,即“提高医疗效能,提高患者舒适度,减少浪费”。10虽然这种方法似乎通常符合循证医学11的许多方面,包括其强调应用程序的输出(即人工智能的应用会产生某些结果,从而证明人工智能的应用是合理的,如成功治疗和治愈疾病),它与普遍期待的人工智能在各个领域的应用形成鲜明对比:我们也应该能够理解人工智能实际上是如何工作的,以及为什么要采用基于理性的方法来应用人工智能。(参见本书威施迈耶的文章,特别是第25段及以下)。
在算法的帮助下,模拟了一个相互连接的人工神经元网络,在这个网络中,突触权值在学习阶段不断变化。学习过程也通过“尝试错误”来进行,据此,不可避免的错误的发生构成了系统最终如何进一步发展的基础。这意味着“直觉的”行为使得提前预测学习系统在特定情况下的行为变得非常困难,甚至是不可能的。12因此,人工智能的学习和它所学到的东西不能通过个体发展步骤的逻辑顺序而显现出来,而只能通过网络结构间接地、一般地表现出来。13
然而,在这两种情况下,如果一个基于人工智能的医疗系统能够生成关于发现的结构化报告,我们应该如何解释它呢?原则上,医疗必须符合治疗时医学科学的现状,即已经预见到其法律意义的标准,代表了对医生的义务和责任进行评估的护理标准。14
“医疗标准”一词可以细分为医生的行为标准和护理标准。15后者涉及医疗体系在政治决定上确定的绩效和质量资产,主要帮助经济评估来控制成本。医生行为标准尚未最终确定。然而,人们普遍认为它是在三个层面上形成的:科学知识、医疗经验和医学界的共识。因此,该标准与医学科学的既定状态相对应,该状态基于相关领域的科学发现和医疗经验,并在医疗实践中被认可,用于治疗各自的健康障碍。这一认识与实现医疗目标的需要和试验中的批准有关。16尽管如此,这一定义还是相当模糊,因为它没有澄清上述三个标准之间的关系以及如何对它们进行加权,在人工智能可能主要发挥作用的科学确定性的必要程度上,情况尤其如此。17然而,正是这种不精确,传统上允许灵活使用标准术语,不仅依赖于当地的医疗条件和各自的科学知识状况(这也必须导致与医学进步同步标准的不断发展),18但根据这一术语的规范性内容,19它也充当了个案的动态门户,推动了对病人自决权的充分考虑。事实上更是如此,因为必须始终考虑到这一点。如果患者的疾病情况需要,偏离标准并不是治疗错误。在这里,决定性因素是偏差原因的医疗合理性。20因此,总而言之,在应用医疗标准时(或在极少数情况下偏离医疗标准时),主要基准是由患者自己设定的。
在这种将开放定义的医疗标准应用于医生工作的背景下,人们可能仍然会认为某些相关的细微问题是不合理的,例如,是由人工智能的哪一个内部过程形成了特定的医疗结果以及如何形成的。毕竟,当被问及一个发现究竟是如何产生的时候,医生最终也只能参考他们的医疗培训和经验,因为访问自己的“内部处理”结果的细节必须被拒绝。21
此外,虽然医生可以以多种方式得出医疗结果,有些结果实际上是在使用作为定向辅助的医疗标准的指导下得出的,这些也受到上述各种公式的强烈影响,即认识到人类特征的能力,这些特征用于克服依赖于个案的医学疾病和健康概念操作化的具体挑战。
目前为止,这些公式主要在医患关系中实现。因此,在人工智能可能从这方面提出具体挑战的背景下,进一步研究这种关系以及如何将其作为一个平台来提升患者的主观幸福感是至关重要的。
二、人工智能对医学伦理学中医患关系地位和作用的影响
1. 医学伦理学中的医患关系
由于权力的不平衡,医生和病人之间的关系是不对称的。22在传统的医疗环境中,主要原因是由于两者的医疗保健相关知识的性质和水平以及他们判断这一知识的能力存在根本的不同。由于培训和实践,医生可以以专业的方式管理控制疾病,然而,对病人来说,处理这些问题往往是一种改变生命的对抗。他们对主治医生的特殊信任在某种程度上决定了他们之间的关系,在许多情况下,这种信任远远超出了通常存在于(法律)关系中的人与人之间的利益。23因此,最重要的是,医学伦理继续努力恢复这些行动者之间的平衡。24
医患关系的规范含义导致了不同的解释模式。25抛开传统的家长式模式后,26信息模式、解释模式或契约型模式27的中间阶段导致确立了今天的现状:合作模式,又称参与式或共享式决策28模式。
在合作模式中,医生的任务不仅是向患者提供有关同意的信息,而且还要帮助他们明确自己的目标和愿望,对它们进行评估并将其表述为行动,以便在医疗保健计划中实施。因此,病人被认为是一个不仅需要信息而且需要建议的人。29然而,咨询和提供信息应该在没有任何“控制性影响”的情况下进行。30这种模式的一个重要结果是,患者或多或少地成为与医生平等的伙伴,基于他们的个人履历资格将特定的知识纳入他们的关系中,这对于开放和评估医学专业知识并使其在个案中发挥作用是至关重要的。31为了做到这一点,并作为实现共同决策的手段,医生应依赖于既定的医学伦理原则。
2. 医学伦理学原则及其在医患关系中的实施
比彻姆(Beauchamp)和丘卓斯(Childress)32的四原则理论在一部分人看来是有争议的,33但它在当代医学伦理学中得到了最大程度的接受。因此,它应该成为分析的主题。是因为与其他医学伦理学理论相比,它越来越被证明是一种有助于重新设计关于健康和疾病概念操作化的医患关系的方向。34
比彻姆和丘卓斯提出,由于尚未解决基本的道德哲学争议,医生应使用与各种道德理论相一致的原则,而不是单一的最高道德原则,来定位自己与患者的关系。35他们重建了四个中等范围的非等级原则,这些原则应与日常道德信念相结合,从而体现共识,并能指导医疗行为:36尊重自主权、不伤害、仁慈、公正(参见后文第21段及以下)。37
这一理论的优点和缺点都在于它没有进一步规定在系统关系意义上的原则权重。38一方面,这实际上允许对不同的道德信念进行与案例相关的解释和访问。另一方面,这种灵活性与能够找到解决办法的有限能力相辅相成;在解决具体案件时,由于缺乏先前的原则权重留下了太大的理解空间,这意味着在困难的道德冲突情况下,通过更精确的伦理导向提供支持可能会消失。39尽管这些原则在日常生活中看似合理,但仍需要充实其内容并根据每种情况的细节加以解释以便指导具体决策,由于不可能从理论内部推导出它们的确切关系,也不可能从它们具体应用的环境中进行权衡,这也决定了它们可能会发生冲突。40
作为对这种批评的回应,比彻姆和丘卓斯进一步发展了他们的理论,并试图将其呈现为一个更加连贯的规范框架。41他们阐述了他们的理论一致性规范,他们的理论作为抽象原则和具体问题之间的桥梁,并在这方面发展了一种共同的道德思想。42这一想法不是要产生一个统一的理论,而是以道德准则组成部分的形式提供决策帮助,从而推进在医学领域中道德问题的具体处理和解决。43
因此,与医疗实践仍然相关的不是缺乏对这些原则的最终解释,而是这些原则仍然必须首先在个案基础上加以解释和应用,以便直接采取具体行动处理与患者的关系。44为了能够做到这一点,在下一步中,应该考虑它们在人工智能系统的特定用例中的实施所面临的挑战。
3. 人工智能对医学伦理学的挑战
应用人工智能所产生的与医学伦理原则实施相关的问题可以总结如下:
虽然人工智能可以潜在增加患者自主权,但它也会对患者的自我决定(和尊严)产生限制性影响。45人工智能可能会基于对风险的计算或对用户最有利的选择进行限制,并以这种方式操纵他们46产生危险,这种危险因此也必须与自主原则进行权衡(参见本书恩斯特文章的第11段及以下)。如果使用人工智能系统进行诊断或制定治疗计划,但医生无法解释这些计划是如何得出的,这可能被视为限制了患者对其健康作出自由、知情决定的权利。47此外,随着人工智能在医学上的应用越来越“强大”,当患者无法判断他们是在与真人交流还是在与技术交流时,可能会出现社交孤立的危险(例如在护理情况下)。48这也可能导致一种被欺骗的感觉。49
在评估基于人工智能的系统对患者的影响时,实施有利原则意味着必须始终把尊重患者的幸福感放在首位。在这种情况下,当确定利用人工智能作出的与可理解和可交流的健康相关的决策应采用哪些措施,以及如何处理假阳性和假阴性结果时,特别重要的是讨论如何在决策过程中,特别是在评估风险信息时,能够考虑到患者的主观知识和生活经验。
在实施非恶意原则时,围绕可靠性和安全性的问题变得至关重要。如果一个错误可以追溯到一个人工智能系统故障,并且所说的错误是很难检测到的或具有连锁效应,那么这可能会产生严重的影响。50人工智能也可能被用于恶意目的,比如秘密监视或收集有关一个人健康状况的信息,而这些信息是在他们不知情的情况下获得的,例如,这些信息是基于对追踪设备发现的运动行为和运动模式进行的分析。51
当以一种公正的方式将人工智能应用于医疗保健时,透明度和责任制可以被视为实现这类应用的基石。如上所述(参见第6段),很难确定或者说不可能确定生成人工智能输出的基本逻辑:要么因为它是保密的,要么因为它太复杂以至于人类无法理解,包括他们在学习过程中不断调整自己的参数和规则。这就给验证人工智能系统的输出带来了问题。尽管人工智能应用程序有可能减少人的偏见和错误,但它们也可以在用于训练它们的数据中重现和强化偏见。52有人担心人工智能可能以隐藏的方式导致歧视,例如,用于训练人工智能系统的数据集往往不能很好地代表更广泛的人口,因此,可能会作出反映社会上更广泛偏见的不公平决定(参见本书拉德马赫文章的第35段及以下;本书蒂斯比克文章的第5段及以下)53此外,这可能导致人工智能在医疗保健方面的利益分配不均。在数据稀缺,或难以用数字方式收集数据,或者难以通过数字方式呈现数据的情况下,人工智能可能工作不太好,对患有罕见疾病的人或在临床试验中代表性不足的人产生负面影响。54
此外,偏见可以嵌入算法本身,反映出人工智能开发者的信念和偏见。55这最终意味着医生和患者之间的关系(到目前为止,医学伦理原则是根据具体用例来实现的)本身也可能受到损害。医患之间传统的双边关系被打破了,因为新的参与者、程序员、产品制造商和潜在的人工智能应用程序本身打破了这种双边关系。这使得“共享决策”模型难以实现,该模型旨在确保两个传统参与者之间的平衡、对称关系。因此,坚持和实施既定的医学伦理原则,需要考虑上述双边关系的任何变化和影响。
同时,这也影响到医生在人工智能应用中可能发挥的作用,特别是在医疗过程中实现患者的自主性和幸福感以及以公正的方式避免伤害所需的实际能力。这也影响到他们工作的实践方面,例如他们的培训、资格要求和仅限医疗专业人员应用人工智能的任何潜在保留。56此外,保持他们的技能,以便在人工智能系统失败时能够接管工作可能是至关重要的。57
最终,在实践层面上,医生和患者都需要足够信任人工智能系统。在这方面,除了应对在具体案例中实现医学伦理学原则的挑战外,还必须通过界定对患者的法律义务包括明确的责任问题规范,来指导人工智能的实施是至关重要的,因为它们可以保证损害赔偿的公平性。58
三、人工智能对责任法中医患关系地位和作用的影响
医患之间的法律关系是一种治疗关系。然而在医疗合同下,医生并不负有必须成功治愈病人的义务,而是应尽专业的努力以治愈或减轻病人的痛苦。59因此,根据医生的合同义务,至少根据德国法,60他在治疗期间应遵守规定的护理义务。违反治疗医疗合同义务的,适用民事法律规范对违约赔偿的规定。61
医疗责任也允许我们借鉴侵权法,因为医生可能既不合理地损害健康又侵犯身体完整权。因此,除了合同责任外,侵权责任也可以导致损害赔偿责任。62
弱人工智能与强人工智能是有区别的。前者的特点是编写具有医学专业知识的算法,例如,从多个参数计算得分,从而为治疗规划和诊断提供支持。后者描述了一个相当独立的神经网络,它学会识别医学上相关的关联,并从其中给定的关联中评估合理性。63然而,即使是以前的智能医疗设备,通常也已经在其功能框架内自行实施治疗措施,并以这种方式至少能够部分取代医生。就目前情况来看,他们通过向医生提供必要的信息来辅助医疗活动,并在此基础上医生作出治疗的决定。
如果人工智能用于医疗决策支持或结果的最终评估,但如根据医疗标准进行治疗,但医生的决定是:根据医疗标准进行治疗仍然是决定性的,且可以根据医疗事故原则对案件进行评估(参见第32段及以下)。在这里,人工智能系统的产品责任法只应作为一项附加资产使用。我们将首先进一步考虑医疗事故法的充分性,以确定人工智能在医疗保健领域的现状,然后考虑关于产品责任的规则,包括一些情况,例如,患者将由人工智能系统单独和直接治疗(参见第47段及以下)。上述作用外,如果除医疗事故法还需要依据产品责任法,那么产品责任法在极端情况下将变得特别相关,因为一旦达到一定的复杂程度,人工智能诊断本身就被视为医疗标准,因此基本上优先于潜在的人类医疗意见。在这种情况下,医疗责任将在原则上被排除,而制造商的责任将是决定性的。
1. 医疗事故法问题
为了使医疗行为合法,医疗措施除了明显不属于禁忌外,64还必须得到知情患者的同意,并且必须符合法律要求。在应用人工智能系统时,信息不足和治疗错误的责任似乎是最相关的问题。
(1)知情同意,信息不足的责任
知情同意的目的是让患者对疾病的性质和严重程度、可能的治疗方法以及与计划的医疗措施或其遗漏相关的负担和风险有一个大致的了解。65了解这些措施的性质、意义和范围,能够使他们自己对治疗作出正确的决定。66
在诊断、治疗和风险信息以及关于治疗过程的信息之间进行了区分。67治疗信息主要包括对干预范围的解释。68例如,如果使用人工智能,这将包括在治疗合同框架内收集的关于可能的、不可预见的、意外的或额外发现的信息。
风险信息应包括没有任何差错的医疗产生的潜在副作用。有关不进行治疗引起的并发症或有害影响的适当信息也有助于使患者了解医疗干预的利弊,使他们能够作出明智的决定,即他们是否愿意承担治疗的风险,从而最终同意该方案,同时保留他们的选择自由。69在知情同意的情况下,治疗风险不必以医学上精确的方式向患者描述,也不必以其所有可想象的表现形式描述。70让病人对风险范围的严重性有一个大致的了解就便已足够。患者一般必须知道目前存在何种疾病、计划采取何种干预措施、干预的紧急程度、如何实施以及与之相关的副作用和风险。71医生通常可以通过介绍这些信息,而后再根据病人的问题再提供进一步的细节。
人工智能的应用是否最终呈现出一种需要澄清的情况,取决于在最坏的情况发生时对患者健康状况和生活方式造成的危险程度。发生事故的危险是否会导致医生承担告知义务,取决于在设计层面已经采取的技术和组织措施(根据欧盟《医疗器械条例》第17.2条第1款的规定)72能够在多大程度上抵消、减轻和排除风险(参见本书贾布里文章的第5段)。尽管也可以假设,人工智能的试错学习方法所产生的风险总是会增加对患者造成的危险,但不需要告知患者一般的和纯理论的并发症,特别是因为它们会不必要地混淆和干扰他们。73总的来说,依据人工智能系统的性能,很难证明医生有责任告知患者人工智能导致的故障风险。74
(2)治理错误责任与举证责任
由于主诊医生对治疗的成功不承担法律责任,75因此失败的治疗不能证明任何责任是正当的,至少根据德国法不是这样。76这就要求一种医疗错误,在某种意义上是一种违反了医生的具体专业职责的应受处罚的行为。77根据护理标准,主治医生应根据其科学知识状况对患者进行专业治疗。78由此产生的护理合同义务和侵权责任是相同的。79
在这个应用背景下,如果医生根据其专业知识确认智能医疗器械提供的信息在特定情况下不正确,则不得将其作为决定的依据。他们的独立评估信息是他们专业知识的一部分,一个错误越能证明其危险性,他们就越有必要质疑自己决定的依据。80
医生在特定情况下是否严重偏离医疗标准,必须在就医时按照医疗标准进行判断。81基于人工智能的应用程序本身对医疗标准的影响,以及如何在其影响下的相关时间点确定医疗标准,是一个值得讨论的问题。学习过程(以及这些应用程序的运行速度)可能首先使知识的状态暴露于快速变化之中,从而使相关的时间点难以掌握。由于人工智能系统用于得出给定建议的方法可能是不透明的,这可能会使判断医生是否严重偏离医疗标准作出决定更加复杂化,特别是当他们的决定与基于人工智能系统应用的决定不同时。医生可以自由选择诊断和治疗方法,但他们也要对自己的选择负责。82这包括选择和应用支持系统的责任。根据人工智能系统在医疗决策中的具体影响和作用,如果人工智能系统的决定是很难核实的(如果不是不可能核实的),那么人工智能在事实上作出决定,而医生仍然对该决定负有法律上的责任,这便可能导致行为和责任的分歧。83在这方面,很明显,人工智能作为支持系统,相较于一个能作出可能符合医疗标准本身的医疗决策的系统,二者之间的区别可能变得越来越具有挑战性。
《欧洲医疗器械法》第4条第1款也具体规定了医疗器械使用中的医疗护理责任(参见本书贾布里文章的第6段及以下)。84根据这一规定,如果有合理理由怀疑医疗器械的不当使用或维护对患者、使用者或第三方的安全和健康构成直接或间接风险,以及用于超出医学研究结果合理范围的用途,则不得操作或使用医疗器械。这里的问题还在于,医生可能看不到智能医疗器械的内部决策过程(参见前文第5段及以下),这就是为什么产品造成的危害通常只能通过破坏性事件显现出来。在这种情况下,由于缺乏可预测性,不能认为医生具有过错。85
然而,一旦医生意识到使用医疗器械涉及不可接受的风险,在按照《医疗器械运营商条例》(Medical Devices Operator Ordinance, MPBetreibV)第7条第1款的规定进行必要的维修之前,他们不得使用本产品。86由于医生通常不具备维修医疗器械所需的技术知识,因此主流意见是赞成医疗器械制造商对上述维修承担主要责任。87
举证责任是一个程序问题。主张责任索赔的患者必须证明治疗是错误的,其权利受到侵犯,以及损害(即对健康的不利影响)和二者之间的因果关系。88
举证责任可以决定(法律上的)因果关系,从而决定谁赢了这场官司。治疗错误侵权因果关系的确定在实践中往往是一个相当大的问题。在很多案例中,尽管存在一个或多个治疗错误,在民事诉讼规则89所要求的确定性程度下,并不能排除该侵权无论如何都会发生的可能性,即使没有治疗错误。因此,证明责任原则和改变证明责任的可能性是相当重要的。
不同于在知情同意情况下因信息不足的错误(参见前文第33段及以下),关于治疗错误的举证责任的基本分配也有例外,例如根据《德国民法典》第630h条第5款,如果治疗错误非常严重,应归类为严重的治疗错误,因为这种错误对医生来说是不可想象的。90
此外,所谓的“完全可控风险”(或“完全可控制风险”)的法律概念也为患者提供了较轻的举证责任。在这种情况下,医生必须解释他们没有过错的原因。根据《德国民法典》第630h条第1款,如果出现了治疗医生完全可以控制的一般治疗风险,并导致对患者生命、身体或健康的伤害,则医疗责任被推定为由治疗医生的过错所产生。基本可控性不足以适用这一举证责任规则,风险必须分配给从业人员的“组织和控制范围”。91如果这些风险既不是来自患者自身人体的风险范围,也不是来自医疗干预对该组织的特殊作用,那么这些风险是“完全可控的”。92这些通常包括病人因设备或建筑配件有缺陷或卫生或组织程序不完善而受伤的特殊情况。93在医疗器械和材料的故障、功能和正确操作由医生负责的情况下,则风险是完全可控的,除非此类设备存在无法检测到的设计错误,或在科学上无法解释损坏是如何发生的。94
即使智能医疗器械的过程是不确定和难以理解的,但根据目前的技术可能性,通过适当的技术和组织措施,它们仍然可以被认为是完全可控的。因此,《德国民法典》第630h条第1款规定的推定也适用于此类医疗器械。然而,要使推定有效,患者必须提供充分的证据,证明完全可控的风险与所受伤害之间存在因果关系。95检查治疗记录是澄清案件事实的一项重要措施,如有必要,确立主治医生的责任。96然而,在应用人工智能时,如果这影响到治疗记录,那么在这种情况下确定责任可能会变得更加困难,因为记录义务的责任变得更加紧密相关。97
2. 产品责任法问题
根据德国法,针对智能医疗设备制造商的索赔可能基于生产者责任或产品责任的侵权法原则。98为了避免其产品可能产生的危险,制造商须在侵权责任下承担相应的商业义务。根据法律规定,制造商的责任与缺陷的概念有关,在德国法中,缺陷的概念是基于产品使用者的安全期望。99根据制造商的商业义务的相同标准,这些安全期望得到证实,因此,确定责任的关联因素是一致的。100根据生产者侵权责任,可以对设计、制造、指导和产品监控义务进行基本区分。101在这里,在人工智能的情况下,设计和制造的义务是最具决定性的(如前所述,前者不仅与医疗事故法的相互作用)。然而,在某些对基于人工智能的产品具有决定性作用的情况下,不包括制造商对设计错误的责任,因此制造商没有更换的义务。
在德国法中,如果在特定情况下可以假定该产品在被制造商投放市场时没有造成损坏的缺陷,则属于前述情形。102此外,如果根据科学技术的最新水平,在制造商将产品投放市场时无法检测到缺陷,则不包括更换的责任。103这意味着,随后发生的错误基于算法的学习能力,而且鉴于人工智能投放市场时的科学技术水平是无法识别的,因此不在《产品责任法》(Product Liability Act, ProdHaftG)的严格责任范围之内。如果不能客观地发现存在的缺陷,侵权责任中的生产者责任也因无过错而被排除在外,这通常是由于智能产品行为的不确定性造成的。如果智能医疗器械的使用导致的损害在此基础上排除了设计错误责任,那么受害方仍然无法得到赔偿。104
《产品责任法》第1条第4款确定的产品责任,受害方必须对错误、损害以及错误与损害之间的因果关系承担举证责任。根据第1条第4款第2项的规定,制造商必须证明存在排除其根据相关第1条第2款规定所承担的更换义务的要素。即使在生产者承担侵权责任之后,产品缺陷的举证责任仍由受害方承担。然而,如果智能医疗器械的人工决策过程不透明(参见前文第6段及以下),则不可能基于清晰的逻辑对机器的行为进行回顾回溯性检查,因此在这种情况下,很难证明存在产品缺陷。
3. 基于责任法的结论
综上所述,无论是在知情同意框架下人工智能系统可能出现故障的信息不足,还是在治疗过程中出现的错误,仅以医疗事故法律规定为基础的责任制度的确立面临着诸多困难。因此,随着人工智能系统的独立性越来越强,责任将倾向于集中在人工智能系统的生产者身上。
然而,生产者责任的确立也面临着挑战,医疗事故法与生产者责任的相互作用也存在问题。误诊并不意味着治疗上的错误:它必须违反相关的医疗标准。如果不是这样的话,也不可能声称存在会引起制造商责任的设计错误。如果违反了医疗标准,这不一定会引起制造商的责任。在医疗责任的情况下,医生对自己的治疗错误所造成的损害承担责任,而制造商对人工智能犯下的治疗错误不承担责任,而是对他自己的行为即制造有缺陷的产品承担责任。在这里,人工智能缺陷的理由和成因是责任成立的决定性因素。105
在制造商、程序员、作为操作人员的医生、作为用户的患者之间的人机关系网络,在绝大多数情况下,无法明确识别错误的来源。无论损害是由完全可控的风险造成的,还是最终由医生的操作错误造成的,在强人工智能情况下或者是由病人自身应用错误造成的,都难以根据技术环境被清楚确定。
因此,负有举证责任的受害方通常承担使用智能医疗器械的风险,因为他们通常无法提供必要的证据来主张和执行损害赔偿要求。
总之,很明显,至少应该知道并了解医疗人工智能产品的主要内部流程,以便能够分配风险、确定责任和提供损害赔偿。由于情况并非如此(参见前文第6段及以下),文献中提出了对责任法的各种改进。106这些建议包括将人工智能设计为一个独立的拥有财产能力的法人,以及创新风险的保险制度等。鉴于人工智能是一个“黑箱”,扩大严格责任的要求是独立于错误而发生的,这似乎是最提倡的解决办法,似乎也是最合适的方法,这确保了患者不会比仅由人类医生治疗的情况更糟。然而,如上文所述(参见前文第45段及以下),与这种治疗相反,这不仅是困难的,有时甚至不能证明损害由治疗错误所引起。因此,根据这些建议,智能医疗器械的扩大严格责任应规定制造商和患者的责任,仅限于对人身损害和物质损害的赔偿,并规定连带责任。107根据人工智能被整合到医疗中的程度,严重的治疗错误可能被认为是严重的设计缺陷(参见前文第48段)。
尽管这依赖于人工智能的整合程度及其在医疗决策中的作用,在产品制造商的责任越来越重要的背景下,为了帮助实现共享的医疗决策,同时依靠人工智能系统的应用时,必须询问医生在其中发挥的作用是什么。
四、医生在医患关系中的地位和作用
根据德国法,医患之间的民事法律义务最初是在签订治疗合同时产生的,通过患者的同意证明合同的合意。108
合同义务的概念应同时在狭义和广义上加以理解。虽然狭义上的“义务”指的是履行权利,但广义上,它包括了医生与其患者之间产生个人索赔的整个法律关系。109根据诚实信用原则(《德国民法典》第242条),缔约方有全面履行合同的义务。除了主要的履行义务外,这还导致行为义务可分为确保履行义务(仅次于履行义务)和保护义务。110确保履行的次要义务可产生预备和辅助作用。111最后,根据《德国民法典》第242条第2款的规定,保护性义务可由合同义务产生。因此,每一方都有义务考虑另一方的权利和法律利益。112
此外,根据《德国民法典》第241条第2款的规定,保护义务的范围取决于合同义务的内容,其中必须考虑到合同的目的等。从患者的角度来看,合同的目的是促进他们自己的健康。负责任的医生对患者的建议、照顾和护理的义务可能出于同样的目的(即促进患者的健康),因为忠于合同的原则要求医生努力使合同得到最好的履行。
关于保护义务的这种解释,医患之间的契约义务成为应用人工智能系统的平台,成为共同制定、确定和尊重患者需求和幸福感的动态义务的门户。预防疾病和促进健康作为合同的关键主题,尤其需要尊重对健康和疾病作为非客观因素的理解。这对于履行合同义务以实现其目的也是必要的,这进一步假定支持患者的医生将根据患者的自述来考虑任何基于人工智能的治疗建议和决定。
这可能需要在(由治疗授权和技术创新所决定的)传统的知情同意程序之外“扩展”医生和患者之间的沟通,并加强医生的相关义务,包括一般信息义务。113
此外,这提升了人工智能无法实现而只有医生才能实现的与患者相关的能力和方法,为了实现疾病和健康的概念:社会和人类的组成部分必须在人工智能系统的应用和对其结果的解释中发挥变革性的作用。114这包括根据病人的期望和个人需要制定医疗行动计划,这赋予了医患关系一种特殊的动力和自发性,从而在整个医疗保健过程中起着特定的作用。
这与将医生和患者之间的交流解释为一种话语过程是一致的,这种话语过程总是发生在具体的人之间,他们的个性将在关系自主性中得到承认,这有助于在考虑患者脆弱性的同时增强患者的能力。115只有这样,才能实现共享决策模式,即患者的自我决定不被理解为与医疗任务的矛盾,而是呼吁医生及时与患者合作。116这些义务可以通过医学伦理原则的具体化来实现患者的自由,包括在责任法范围内实现医疗保健的事实个性化并确定治疗方案时,较少地基于人工智能系统的正当性,而是更多地考虑它们在与患者的个人交流中的可解释性(参见本书威施迈耶文章的第36段及以下)。同时,由于决策链的可概括性或其他与过程优势相关的原因,已经融入人工智能系统的决策链的透明度意味着技术仍然至关重要。通过将患者的主观需求输入与医生的动态对话所产生的决策过程中,可以丰富和进一步发展这些内在过程。这可能会阻碍医疗健康和患者治疗的不道德人格解体,通过技术促进对患者友好的医疗保健的实现,重新评估在可预见的将来,人的因素仍然是不可或缺的。
因此,在此期间我们可以得出结论,根据患者的具体情况对人工智能系统的发现或治疗建议的评估必须具有决定性。相应地,只有部分原因的索赔更重要,这一索赔与人工智能系统的应用及其结果解释有关,与一种更能影响患者健康的方法有关。通过具体化其既定要素之间的关系,依赖于这种增加的规范,这应该是澄清在人工智能的影响下什么可以算作医学标准的第一步。
注释
1. Cf. only the Elsevier journal Artificial Intelligence in Medicine, https://www.journals.elsevier.com/artificial-intelligence-in-medicine.
2. Cf. Ranschaert et al.(2019),重点在放射学,但具有与一般影像学相关的普遍发现。
3. Haenssle et al.(2018).
4. Albu and Stanciu(2015).
5. The Economist(2018).
6. Aftergood(2018).
7. 参见世界卫生组织(WHO)对健康的定义。See also Committee on Economic, Social and Cultural Rights, General Comment No.14—The Right to the Highest Attainable Standard of Health(Article 12)[UN Doc E/C.12/2000/4, [2001] ESCOR Supp 2, 128], para 4.
8. Lanzerath and Honnefelder(2000), pp.51 et seq.; Eckart(2013), p.300.
9. Parks(2010), pp.100—120; Loder and Nicholas(2018).
10. Biegel and Kurose(2016).
11. Sackett et al.(1996).
12. Ebers(2017), p.95.
13. Ebers(2017), p.107.
14. Katzenmeier(2016), §823, recital 366.
15. 对于这个一般性的划分和评估,也随后,cf. Schneider(2010), p.11(附进一步的参考文献)。
16. Steffen(1995), p.190; Dressler(2010), p.380.
17. Dressler(2010), p.380.
18. Laufs(1999), p.626.
19. Brüggemeier(1999), p.63.
20. Hart(1998), p.13.
21. Wischmeyer(2018), p.1.
22. Eckart(2013), p.324.
23. Janda(2013), p.123; Kluth(2008), p.39; Maclean(2009), p.93.
24. Jones(1999), p.129. 希波克拉底誓言是医学伦理学最早的表达形式,它已经强调了一个重要的原则,即非恶意原则,这一原则在现代医学伦理学理论中得到了保留(参见本章第17段和第24段)。
25. Molnár-Gábor(2017), p.111 et seq.,还有更多参考资料。Emanuel and Emanuel(2012), p.107; Schöne-Seifert(2007), pp.88 et seq..
26. 家长式模式是最初的希波克拉底模式,在这种模式中,医生的护理责任在很大程度上是决定性的。医生促进病人健康的任务优先于患者的意愿,而且还涉及未来的敏感问题。Boyd(2006), p.31.
27. 相反,信息型的医患模型表明,患者自己决定医疗措施。医生必须以适当的形式向患者传达医疗事实,医生的个人价值观或信念不起作用。另一方面,契约模式将医患之间的互动表现为一种服务,在这种服务中,患者当前的意愿在医生的行为中起主导作用。意愿优先于患者的健康,即使根据医学标准,意志显然是无益的。信息模型和契约模型的区别在于前者医生知道患者的个人价值,而后者是共同决定的。Emanuel and Emanuel(2012), p.56.
28. Maclean(2009), p.129 et seq.; Elwyn et al.(2012), p.1361.
29. Thiele(2013), pp.560 et seq..
30. Schöne-Seifert(2007), p.44.
31. Taupitz(2002), p.132.
32. Beauchamp and Childress(2013).
33. Cf. Düwell(2008), p.95.
34. Spranger(2010), pp.18 et seq..
35. Marckmann et al.(2012), pp.32 et seq..
36. Marckmann et al.(2012), p.33.
37. Beauchamp and Childress(2013), pp.101 et seq..
38. Schöne-Seifert(2007), p.32.
39. Marckmann et al.(2012), pp.35 et seq..
40. Wiesing(2005), pp.77 et seq.
41. Beauchamp and Childress(2013), p.405.
42. Beauchamp and Childress(2013), pp.403 et seq..
43. Clouser and Gert(1990), pp.222 et seq..
44. Wiesing(2005), p.82.
45. Cf. Nuffield Council on Bioethics(2018).
46. Sharkey and Sharkey(2012), p.5.
47. Mittelstadt(2017).
48. Sharkey and Sharkey(2012).
49. Wallach and Allen(2008).
50. Wachter(2015), p.4, cited in: Nuffield(2018), p.4.
51. Yuste et al.(2017), p.6, cited in: Nuffield(2018), p.6.
52. Future Advocacy(2018), p.30.
53. Nuffield(2018), p.5.
54. Future advocacy(2018), p.35.
55. House of Lords(2018), pp.41 et seq.; Future advocacy(2018), p.39.
56. Future advocacy(2018), p.40; Nuffield(2018), pp.5 et seq.; House of Lords(2018), p.55, No.164.
57. Nuffield(2018), p.6.
58. Jansen(2003), p.37. 在德国,医学专业的伦理和法律原则是在(标准)职业规范中定义的。它为医疗协会服务,作为其专业行为准则的典范,以使专业法律的发展在整个德国尽可能统一。各医疗协会的职业行为准则规定了医生个人与患者、专业同事及其医疗协会之间的权利和义务。本行为准则是由医疗协会根据各自联邦州的《医疗行业和商会法》(Medical Profession and Chamber Act)颁布的一部成文法。医疗协会负责确保医生遵守职业职责,处理对医生的投诉,检查其行为是否符合职业法。如果出现违规行为,他们可以向专业法庭上诉。Cf.http://www.bundesaerztekammer.de/weitere-sprachen/english/german-medical-association/(accessed 06 January 2019). 总而言之,基于一般医学伦理学、职业法和医疗事故法的原则阐述医生的职责之间的关系超出了本章的范围,因此本章将简单地引用埃贝哈德·施密特(Eberhard Schmidt)的话:“职业行为的伦理不是与法律隔离的,它们对医患之间的法律关系具有持续的、普遍的影响。正如职业道德对医生的要求,法律在很大程度上也承担着法律责任。与人类的其他社会关系相比,医学界的伦理和法律融合度更高。”Schmidt(1957), p.2; German Federal Constitutional Court 2 BvR 878/74“medical liability”(25 July 1979)para 106 et seq. Regarding the relationship between medical standards, guidelines and directives, cf. Greiner(2018), §839, recital 21.
59. 一般认为,根据《德国民法典》第611条,治疗合同不属于工作合同(“Werkvertrag”)而是服务合同(“Dienstvertrag”)。自2013年2月26日《患者权利法》(Patient Rights Act)生效以来,这不受《德国民法典》中治疗合同特别规定的影响,副标题“治疗合同”已经被包括在《德国民法典》,涉及医疗合同和治疗框架内的权利和义务。Spickhoff(2018a, b), §630a BGB, recital 5, §630b BGB, recital 1.
60. See §§280, 630a et seq. of the German Civil Code(BGB).
61. 《德国民法典》第280条第1款规定:债务人违反债券义务的,债权人可以要求损害赔偿。如果债务人对违反义务不负责任,则本条不适用。
62. 《德国民法典》第823条第1款规定:不法侵害他人生命、身体、健康等权利的,负有向他人赔偿损害的义务。在德国侵权法中,必须要证明其违反了《德国民法典》的规范之一,这与《法国民法典》相反(《法国民法典》第1382条),仅因过失而要求赔偿是不可能的。如果违反了其中一项规范,表面上就存在不法性,那么这可以通过辩护来证明,就像在英国法中一样。van Dam(2014), p.80.
63. Dierks(2018).
64. Cf., however, regarding elective treatments Laufs(2015), Chapter I, recital 29. German Federal Court of Justice VI ZR 202/79(10 March 1981); German Federal Court of Justice VI ZR 247/78(18 March 1980).
65. §630 e and §630 h BGB. Critically re: double regulation Spickhoff(2018a, b), §630c BGB, recital 11.
66. Laufs(2002), p.121. In German law, this arises from the general right to personality as provided for in Art. 2(1)and Art. 1(1)of the German Basic Law. German Federal Constitutional Court 2 BvR 878/74“medical liability”(25 July 1979)para 109 et seq.; German Federal Administrative Court 3 C 19.15(2 March 2017).根据既定的判例法,按照专家(Facharztstandard)的标准进行的诊断和治疗性质的医学指示治疗,如果未获得患者的同意,也会构成身体伤害(Körperverletzung)。German Federal Court of Justice VI ZR 313/03(15 March 2005); German Federal Court of Justice VI ZR 37/79(22 April 1980)。
67. Gehrlein(2018), pp.100 et seq.
68. Quaas(2018), §14, recital 1—135.
69. German Federal Court of Justice VI ZR 131/02(25 March 2003)para 18. Gehrlein(2018), pp.101 et seq.
70. German Federal Court of Justice VI ZR 65/88(14 February 1989).
71. German Federal Court of Justice VI ZR 232/90(12 March 1991).
72. Regulation(EU)2017/745 of the European Parliament and of the Council of 5 April 2017 on medical devices, amending Directive 2001/83/EC, Regulation(EC)No 178/2002 and Regulation(EC)No 1223/2009 and repealing Council Directives 90/385/EEC and 93/42/EEC.
73. German Federal Court of Justice VI ZR 83/89(12 December 1989); German Federal Court of Justice VI ZR 323/04(13 June 2006). 在不同的领域,文献中对医生在知情同意框架内的职责存在分歧,即是否存在义务告知患者已确立的替代治疗方法以及仍在试验中的治疗方法。Blechschmitt(2016), pp.79 et seq.; in case of a new method: id., pp.85 et seq.
74. As is also derived by Droste(2018), p.112.
75. Hager(2017), §823, recital 18.
76. German Federal Court of Justice VI ZR 201/75(15 March 1977)para 11 et seq.; German Federal Court of Justice VI ZR 213/76(14 March 1978).
77. Cf. §630a BGB.
78. BR-Drucks. 312/12, p.26.
79. Gehrlein(2018), p.33, recital 1. Cf. footnotes 63 and 64.
80. Taupitz(2011), p.387.
81. Gehrlein(2018), p.34, recital 3.
82. German Federal Court of Justice VI ZR 238/86(22 September 1987)para 12 et seq.; German Federal Court of Justice VI ZR 132/88(6 December 1988)para 6; German Federal Court of Justice VI ZR 323/04(13 June 2006)para 6; German Federal Court of Justice VI ZR 35/06(22 May 2007)para 12 et seq.
83. Dierks(2018). 因此,有必要对锁定的闭环人工智能(locked closed-loop AI)应用与连续学习的闭环人工智能(continuous learning closed-loop AI)应用进行区分。
84. The Act on Medical Devices of 2nd August 1994(Federal Law Gazette I, p.1963), in the version of 7th August 2002(Federal Law Gazette I, p.3146), last amended by Article 12 of the Act of 24th July 2010(Federal Law Gazette I, p.983). §4 MPG is also a protective law within the meaning of §823 Abs. 2 BGB, Edelhäuser(2014), §6 MPG, recital 29a.
85. Droste(2018), pp.112—113.
86. Medical Device Operator Ordinance, from the version published 21st August 2002(BGBl. I p.3396), last amended by Article 9 of the Ordinance of 29th November 2018(BGBl. I p.2034).
87. 一种避免责任风险的解决方案是医生和制造商之间的合同协议,制造商有义务维护和修理智能医疗器械。Wagner(2018), §6, recital 7. Regarding further obligations of the manufacturer in this context cf. Droste(2018), p.113.
88. BR-Drucks. 312/12, pp.40, 44.
89. §286 Code of Civil Procedure as promulgated on 5 December 2005(Bundesgesetzblatt(BGBl., Federal Law Gazette)I page 3202; 2006 I page 431; 2007 I page 1781), last amended by Article 1 of the Act dated 10 October 2013(Federal Law Gazette I page 3786).
90. Schreiber(2019), §630h BGB, recitals 10 et seq. German Federal Court of Justice VI ZR 325/98(8 February 2000); German Federal Court of Justice VI ZR 389/90(26 November 1991); German Federal Court of Justice VI ZR 21/85(24 June 1986).
91. Gehrlein(2018), p.88, recital 86.
92. German Federal Court of Justice VI ZR 158/06(20 March 2007).
93. Gehrlein(2018), p.42, recital 13.
94. Gehrlein(2018), p.91, Rn. 90.
95. Droste(2018), p.113.
96. Spindler(2018), §823 BGB, recital 1018.
97. 根据《德国民法典》第630f条的规定,记录需要保留,不只是作为备忘录,Scholz(2018), recital 1。
98. Compare §§823 et seq. BGB for tortious liability and §1(1)sentence 1 Product Liability Act(ProdHaftG)for product liability law, Product Liability Act of 15 December 1989(BGBl. I p.2198), last amended by Article 5 of the Act of 17 July 2017(BGBl. I p.2421). Regarding this summary, compare Droste(2018), p.110; Backmann(2012), p.37, with further references.
99. Foerste(2012), §24 recital 4. §3 ProdHaftG.
100. Oechsler(2013), §3, recital 13.
101. Rolland(1990), part I, recital 39.
102. Cf. §1(2)no.2 ProdHaftG.
103. Cf. §1(2)no.5 ProdHaftG.
104. Droste(2018), p.112.
105. Heil and Sandrock(2017), §23, recitals 30 et seq; Meyer(2018), p.237.
106. Cf. Spindler(2015), p.776; Ortner and Daubenbüchel(2016), p.2918; Keßler(2017), p.589; Denga(2018), p.69.
107. Droste(2018), p.114; Zech(2019), p.214.
108. Cf. §311(1)BGB.
109. Mansel(2011), §241, recital 1.
110. Mansel(2011), §241, recitals 9, 10.
111. Mansel(2011), §241, recitals 9, 10.
112. Grüneberg(2011), §24, recital 6.
113. According to §630c BGB.
114. 参见本书布赫霍尔茨文章的第14段及以下,论法律适用作为一种必要的社会行为。
115. Rössler(2011), p.226.
116. Taupitz(2002), p.132.
本章参考文献
1. Aftergood S(2018)JASON: artificial intelligence for healthcare. Federation of American Scientists. Secrecy News of 1st February 2018. https://fas.org/blogs/secrecy/2018/02/ai-health-care/. Accessed 05 Jan 2018.
2. Albu A, Stanciu LM(2015)Benefits of using artificial intelligence in medical predictions. Confer-ence Paper. https://doi.org/10.1109/EHB.2015.7391610.
3. Backmann B(2012)Produkthaftung bei Medizinprodukten. Medizin Produkte Recht:37 Beauchamp TL, Childress JF(2013)Principles of biomedical ethics, 7th edn. Oxford UniversityPress, Oxford.
4. Biegel B, Kurose JF(2016)The National artificial intelligence research and development strategic plan.
5. Blechschmitt L(2016)Die straf- und zivilrechtliche Haftung des Arztes beim Einsatz roboterassistierter Chirurgie. Nomos, Baden-Baden.
6. Boyd K(2006)Medical ethics: hippocratic and democratic ideals. In: McLean S(ed)First do not harm. Law, ethics and healthcare. Routledge, Hampshire, pp.29—38.
7. Brüggemeier G(1999)Prinzipien des Haftungsrechts. Nomos, Baden Baden Clouser D, Gert B(1990)A critique of principialism. J Med Philos 15:219—236.
8. Denga M(2018)Deliktische Haftung für künstliche Intelligenz. Computer und Recht 34:69—77 Dierks C(2018)Wer haftet bei KI-Fehlern? Ärzte Zeitung online. Article of 19th December 2018.https://www.aerztezeitung.de/praxis_wirtschaft/w_specials/kuenstliche_intelligenz/article/978619/kuenstliche-intelligenz-haftet-ki-fehlern.html. Accessed 05 June 2019.
9. Dressler WD(2010)Ärztliche Leitlinien und Arzthaftung. In: Bradner HE, Hagen H, Stürner R(eds)Festschrift für Karlsmann Geiß zum 65. Geburtstag, Köln/Berlin/Bonn/München, pp.379—388.
10. Droste W(2018)Intelligente Medizinprodukte. Verantwortlichkeiten des Herstellers und ärztliche Sorgfaltspflichten. Medizin Produkte Recht:109—112.
11. Düwell M(2008)Bioethik. Methoden, Theorien und Bereiche. Perlentaucher, Stuttgart/Weimar Ebers M(2017)Autonomes Fahren: Produkt- und Produzentenhaftung. In: Oppermann H, Stender-Vorwachs J(eds)Autonomes Fahren. Rechtsfolgen, Rechtsprobleme, technische Grundlagen. C.H. Beck, München, pp.93—125.
12. Eckart WU(2013)Geschichte, Theorie und Ethik der Medizin. Springer, Berlin.
13. Edelhäuser R(2014)§6 MPG. In: Prütting D(ed)Fachanwalts-Kommentar Medizinrecht, 4th edn. Luchterhand, München.
14. Elwyn G, Frosch D, Thomson R et al(2012)Shared decision making: a model for clinical practice. J Gen Intern Med 27:1361—1367.
15. Emanuel EJ, Emanuel LL(2012)Vier Modelle der Arzt-Patienten-Beziehung. In: Wiesing U(ed)Ethik in der Medizin, 4th edn. Reclam, Stuttgart, pp.107—110.
16. Foerste U(2012)Verkehrspflichten im Bereich der Warensicherung. In: Foerste U, Graf von Westphalen F(eds)Produkthaftungshandbuch, 3rd edn. C.H. Beck, München.
17. Future Advocacy(2018)Ethical, social and political challenges of Artificial Intelligence in health. A report with the Wellcome trust. https://wellcome.ac.uk/sites/default/files/ai-in-health-ethical-social-political-challenges.pdf. Accessed 06 Jan 2019.
18. Gehrlein M(2018)Arzthaftungsrecht, 3rd edn. C.H. Beck, München.
19. Greiner H-P(2018)§839 BGB. In: Spickhoff A(ed)Kommentar zum Medizinrecht, 3rd edn. C.H. Beck, München.
20. Grüneberg C(2011)§241. In: Palandt O(ed)BGB, 70th edn. C.H. Beck, München.
21. Haenssle HA, Fink C, Schneiderbauer R et al(2018)Man against machine: diagnostic performance of a deep learning convolutional neural network for dermoscopic melanoma recognition in comparison to 58 dermatologists. Ann Oncol. 29:1836—1842.
22. Hager J(2017)§823. In: Staudinger Kommentar zum Bürgerlichen Gesetzbuch. De Gruyter, Berlin Hart D(1998)Ärztliche Leitlinien, Definitionen, Funktionen, rechtliche Bewertungen, MMR 8—16.
23. Heil M, Sandrock A(2017)Produkthaftung für Medizinprodukte. In: Anhalt E, Dieners P(eds)Praxishandbuch Medizinprodukterecht, 2nd edn. C.H. Beck, MünchenHouse of Lords. Select Committee on Artificial Intelligence(2018)AI in the UK: ready, willing and able. HL Paper 100.https://publications.parliament.uk/pa/ld201719/ldselect/ldai/100/100.pdf. Accessed 06 Jan 2019.
24. Janda C(2013)Medizinrecht, 2nd edn. C.H. Beck, München.
25. Jansen N(2003)Die Struktur des Haftungsrechts. Mohr Siebeck, Tübingen.
26. Jones MA(1999)Informed consent and other fairy stories. Med Law Rev 7:103—134 Katzenmeier C(2016)§823. In: Dauner-Lieb B, Langen W(eds)Commentary BGB-Schuldrecht, 3rd edn. Nomos, Baden Baden.
27. Keßler O(2017)Intelligente Roboter—neue Technologien im Einsatz. Multimedia und Recht 20:589—594.
28. Kluth W(2008)Juristische Bewertung des Status quo: Stärkung der Autonomie oder Verlust der Freiberuflichkeit? In: Wienke A, Dierks C, Deutsche Gesellschaft für Medizin und Recht(eds)Zwischen Hippokrates und Staatsmedizin. Der Arzt am Beginn des 21. Jahrhunderts—25 Jahre DGMR. Springer, Berlin.
29. Lanzerath D, Honnefelder L(2000)Krankheitsbegriff und ärztliche Anwendung. In: Düwell M, Mieth D(eds)Ethik in der Humangenetik. Die neueren Entwicklungen der genetischen Frühdiagnostik aus ethischer Perspektive, 2nd edn. Francke, Tübingen, pp.51—77.
30. Laufs A(1999)Zur Freiheit des Arztberufs. In: Ahrens H-J, von Bar C, Fischer G et al(eds)Festschrift für Erwin Deutsch. Carl Heymanns, Köln, pp.625—633.
31. Laufs A(2002)Informed consent und ärztlicher Heilauftrag. In: Hillenkamp T(ed)Medizinrechtliche Probleme der Humangenetik. Springer, Berlin, pp.119—139.
32. Laufs A(2015)Wesen und Inhalt des Arztrechts. In: Laufs A, Katzenmeier C, Lipp V(eds)Arztrecht, 7th edn. C.H. Beck, München, pp.3—28.
33. Loder J, Nicholas L(2018)Confronting Dr. Robot. Creating a people-powered future for AI in health. Nesta Health Lab, May 2018.https://media.nesta.org.uk/documents/confronting_dr_robot.pdf. Accessed 05 Jan 2019.
34. Maclean A(2009)Autonomy, informed consent and medical law. A relational challenge. Cambridge University Press, Cambridge.
35. Mansel HP(2011)§241. In: Jauernig O(ed)BGB. Kommentar, 14th edn. C.H. Beck, München Marckmann G, Bormuth M, Wiesing U(2012)Allgemeine Einführung in die medizinische Ethik. In: Urban W(ed)Ethik in der Medizin, 4th edn. Reclam, Stuttgart, pp.23—37.
36. Meyer S(2018)Künstliche Intelligenz und die Rolle des Rechts für Innovation. ZRP 51:233—238 Mittelstadt B(2017)The doctor will not see you now. In: Otto P, Gräf E(eds)3TH1CS: areinvention of ethics in the digital age? iRights Media, Berlin, pp.68—77.
37. Molnár-Gábor F(2017)Die Regelung der Biotechnologie am Beispiel des Umgangs mit neuen genetischen Analysen. Duncker und Humblot, Berlin.
38. Nuffield Council on Bioethics(2018)Artificial Intelligence(AI)in healthcare and research. Bioethics Briefing Note. May 2018. http://nuffieldbioethics.org/wp-content/uploads/Artificial-Intelligence-AI-in-healthcare-and-research.pdf. Accessed 06 Jan 2019.
39. Oechsler J(2013)Produkthaftungsgesetz. In: Staudinger Kommentar zum Bürgerlichen Gesetzbuch. De Gruyter, Berlin.
40. Ortner R, Daubenbüchel F(2016)Medizinprodukte 4.0—Haftung, Datenschutz, IT-Sicherheit. Neue Juristische Wochenschrift 69:2918—2924.
41. Parks A(2010)Lifting the Burden of Women's Care work: should robots replace the “Human Touch”? Hypatia 25:100—120.
42. Quaas M(2018)Die Rechtsbeziehungen zwischen Arzt(Krankenhaus)und Patient. In: Quaas M, Zuck R, Clemens T(eds)Medizinrecht, 4th edn. C.H. Beck, München, pp.240—293.
43. Ranschaert E, Morozov S, Algra P et al(2019)Artificial intelligence in medical imaging. Oppor-tunities, applications and risks. Springer, Berlin.
44. Rössler D(2011)Vom Sinn der Krankheit. In: Voigt F(ed)Akzeptierte Abhängigkeit. Gesammelte Aufsätze zur Ethik, 211.
45. Rolland W(1990)Produkthaftungsrecht. Rehm, München.
46. Sackett DL, Rosenberg WM, Gray JA et al(1996)Evidence based medicine: what it is and what it isn't. Br Med J 312(7023):71—72.
47. Schmidt E(1957)Der Arzt im Strafrecht. In: Ponsold A(ed)Lehrbuch der gerichtlichen Medizin, 2nd edn. Thieme Georg, Stuttgart, pp.1—65.
48. Schneider L(2010)Neue Behandlungsmethoden im Arzthaftungsrecht. Behandlungsfehler-Aufklärungsfehler-Versicherung. Springer, Berlin.
49. Scholz K(2018)§10 MBÖ-Ä 1997. In: Spickhoff A(ed)Kommentar zum Medizinrecht, 3rd edn. C. H. Beck, München.
50. Schöne-Seifert B(2007)Grundlagen der Medizinethik. Kröner, Stuttgart.
51. Schreiber K(2019)§630h BGB. In: Nomos Handkommentar zum BGB, 10th edn. Nomos, Baden Baden.
52. Sharkey A, Sharkey N(2012)Granny and the robots: ethical issues in robot care for the elderly. Ethics Inf Technol 14:27—40.
53. Spickhoff A(2018a)§630a BGB. In: Spickhoff A(ed)Kommentar zum Medizinrecht, 3rd edn. C.H. Beck, München.
54. Spickhoff A(2018b)§630b BGB. In: Spickhoff A(ed)Kommentar zum Medizinrecht, 3rd edn. C.H. Beck, München.
55. Spindler G(2015)Automation, künstliche Intelligenz, selbststeuernde Kfz—Braucht das Recht neue Haftungskategorien? Computer und Recht 20:767—776.
56. Spindler G(2018)§823 BGB. In: Beck Online Großkommentar. C.H. Beck, München Spranger TM(2010)Recht und Bioethik. Mohr Siebeck, Tübingen.
57. Steffen E(1995)Einfluss verminderter Ressourcen und von Finanzierungsgrenzen aus dem Gesundheitsstrukturgesetz auf die Arzthaftung. Medizinrecht 13:190—191.
58. Taupitz J(2002)Grenzen der Patientenautonomie. In: Brugger W, Haverkate G(eds)Grenzen als Thema der Rechts- und Sozialphilosophie. ARSP-Beihefte 84. Franz Steiner, Stuttgart, pp.83—132.
59. Taupitz J(2011)Medizinische Informationstechnologie, leitliniengerechte Medizin und Haftung des Arztes. Archiv für die civilistische Praxis 211:352—394.
60. Thiele F(2013)Arzt-Patient Verhältnis und Menschenwürde. In: Joerden JC, Hilgendorf E, Thiele F(eds)Menschenwürde und Medizin. Ein interdisziplinäres Handbuch. Duncker und Hum-boldt, Berlin, pp.557—570.
61. The Economist(2018)Artificial intelligence will improve medical treatments. 7 June 2018.https://www.economist.com/science-and-technology/2018/06/07/artificial-intelligence-will-improve-medical-treatments.
62. Van Dam C(2014)European tort law, 2nd edn. Oxford University Press, Oxford.
63. Wachter R(2015)The digital doctor: hope, hype and harm at the dawn of medicine's computer age. McGraw-Hill education, New York.
64. Wagner SA(2018)§6 MPG. In: Rehmann WA, Wagner SA(eds)Kommentar zum MPG, 3rd edn. C.H. Beck, München.
65. Wallach W, Allen C(2008)Moral machines: teaching robots right from wrong. Oxford University Press, Oxford.
66. Wiesing U(2005)Vom Nutzen und Nachteil der Prinzipienethik für die Medizin. In: Rauprich O, Steger F(eds)Prinzipienethik in der Biomedizin. Moralphilosophie und medizinische Praxis. Kultur der Medizin, vol 14. Campus Verlag, New York, pp.74—87.
67. Wischmeyer T(2018)Regulierung intelligenter Systeme. Archiv des öffentlichen Rechts 143:1—66 Yuste R, Goering S, Arcas BAY(2017)Four ethical priorities for neurotechnologies and AI. Nature551:159—163.
68. Zech H(2019)Künstliche Intelligenz und Haftungsfragen. ZfPW:198—219.
(1) 作者为海德堡大学分子和细胞生物系统的定量分析中心、海德堡科学人文学院研究员。感谢大众基金会的资助。
(2) 译者为大连海洋大学法律与人文学院副教授。
评论留言