刑法视野下人工智能主体问题探究

人工智能
后台-插件-广告管理-内容页头部广告(手机)

摘要:人工智能技术自诞生以来,理论和技术逐渐成熟,其作为最新科技的发展方向,被广泛应用于医疗、家居、交通等领域,也为人类世界的发展提供了新的机遇。人类在享受人工智能带来便利的同时,也要注意到其带来的刑事风险,及其对现行法律制度带来的全新挑战。所以为了更好地促进人工智能的发展,刑法需要适当做出调整,其中,最重要的在于对法律责任的分配问题。而法律责任的分配问题,最重要的是对刑事责任主体的确定。

关键词:人工智能;法律责任;主体

人工智能的界定

人工智能是在人类的程序、算法控制下能够模拟人类行为、语言、智慧等的智能机器。它能够帮助人们处理日常工作,例如人脸识别、智能检索等,也可以有复杂的操作程序,例如自动驾驶系统、人机对弈系统等。从我国目前的立法来看,并没有对人工智能的主体身份进行承认。根据主流观点,人工智能可以分为弱人工智能和强人工智能。通说认为弱人工智能不具有刑事责任主体资格,而强人工智能因其有自主意志的可能性,是否具备独立的法律人格,值得讨论。

刑法视野下人工智能主体问题探究

人工智能刑事责任能力

刑事责任能力,是指行为人辨认和控制自己行为的能力。只有在辨认能力和控制能力同时具备的情况下,才能说人工智能具备了完整的刑事责任能力。此外,刑事责任能力还与年龄和精神状况有关,这一点对人工智能无需进行评判,但是辨认能力和控制能力,可以用以判断人工智能是否具备刑事责任能力。

对此,我国学界形成了三种观点:一种观点持否定态度,认为人工智能不应具有刑事法律主体的资格,主要理由是人工智能不具有刑事主体所应具备的辨认和控制自己行为的能力;另一种观点持肯定态度,认为伴随着科技的发展,人工智能可以通过自主的学习,积累经验,从而摆脱人类的控制成为拥有独立思考能力的新的法律主体。除此之外还有第三种观点,没有完全肯定或者否定人工智能的刑事主体资格,而是持观望态度,中立的态度。支持者以前瞻性的目光对人工智能未来的发展作出大胆的假设,将其与刑法相串联,探索适合人工智能的责任制度与刑罚的设计方式。否定者立足于当下,相信以人类的智慧足以控制人工智能的发展,以及以当前的科技并无法证明强人工智能会具有辨认控制能力的可能性。从肯定者的立场出发,即使认为应赋予人工智能以法律人格。

笔者认为,及时地进行人工智能犯罪研究具有重要的理论和实践价值。。第一,从人工智能自身上来看,其具有法益侵犯的可能性、具有与自然人相似的特征甚至在不久的将来就会超过人类。第二,从刑法的发展上来看,承认人工智能的刑事责任主体地位是综合考虑了前瞻性因素。立法所立足的背景和社会条件都处于急速的变化发展之中,法律的制定与实施既需要有前瞻性,也要正视现实的可操作性第三,在全球网络化的今天,跨国犯罪十分普遍,人工智能犯罪往往和计算机和互联网关联,完全可以由他国主体对我国主体予以实施,如果我国刑法缺乏必要的准备与实践,那么会导致我国无法对他国主体利用人工智能实施的犯罪予以规制,从而无法实现《刑法》规定的保护原则。即使目前的科技发展使人工智能还不能成为刑事责任的主体,但是综合各方因素,有必要将其作为刑事法律责任的主体列入刑法规制的范围,预防未来可能导致的刑法问题。

刑法视野下人工智能主体问题探究

人工智能犯罪风险的刑法应对

面对人工智能持续的发展,为了处理好人工智能发生犯罪案件,我国刑法应该作出相应的调整,适应人工智能技术的发展。但是刑法也理应保持其谦抑性,不应该过度的对自然科学进行干预。刑法不仅要保证人工智能技术的正常发展,也要防止人工智能被滥用于违法犯罪。就当前情况看来,人工智能还处在弱人工智能阶段,我们不能否定强人工智能时代的到来,但是应该明白人工智能的本质终究还是程序设置的结果,所以生产者设计者的责任仍然是法律追究的范围。当人工智能具有较强大的技术后,由于自身的错误或是被当作工具利用所产生的刑事责任法归属问题,要追究的可能不仅是生产者设计者等主体的刑事责任,对与之相关的其他责任主体的刑事责任都要进行分析。

(一)研发者和生产者责任

当人工智能产品在设计之初就是为了违法犯罪活动做准备,其研发者为其输入用以实施犯罪恐怖主义等其他犯罪活动的数据,并且提供学习的机会等,就可以认为其有犯罪的意图,应当构成故意犯罪。当研发者或生产者没有将人工智能用于犯罪活动而生产出来时,此时在人工智能造成严重社会危害性的情况下,本人是没有预见可能性的,也不是其积极主动追求结果的发生,而是由于人工智能被有心者利用,或是人工智能掌握了自主学习的能力,或是程序设计上的缺陷、漏洞等引发的不利后果,这种情况下就不能纳入故意犯罪的范畴,有可能构成过失犯罪。

(二)使用者责任

消费者在使用人工智能时,要尊重人工智能,不能仅仅把其当作纯粹的工具,而是应该看到人工智能有其内在的价值。当人工智能在使用过程中出现的严重的违法行为时,要合理分析使用者在其中起到的作用。

当使用者作为被害人时,由于并未实施侵权的行为,而且自身的法益也同时受到侵害,所以不是刑法所要惩罚的对象。但是,也要具体情况具体分析,即使使用者作为被害人,也有存在过错的可能,所以此时减轻其他主体的刑事责任时,可以排除被害人没有采取预防措施这一情况。而当使用者使用人工智能的目的是为犯罪行为准备工具时,就属于明知是危害行为,有损害后果的发生,但仍然希望或放任这一结果的发生,此时使用者就没有免责的事由,应该按照我国刑法追究刑事责任。综上,当使用者没有对人工智能履行相应的管理使用义务时,就要承担相应的刑事责任。

(三)其他责任

除了在生产使用领域有相应的责任主体,政府管理部门也要承担相应的责任。政府是社会治理的主导方,在享受人工智能带来的便利的同时,也要承担监管的责任。此外,政府要对人工智能的未来发展、战略布局等进行完整的规划,制定安全标准,通过资金支持、行政手段等多种方式对人工智能的技术研发与应用进行宏观调控。研究者、设计者设计人工智能,不是单独工作,而是整体协同,共同研发、共担风险。在发生事故后,若只追究个人的责任,不对团队整体追责,也无法准确做到对后果进行准确评估。

适当扩充刑罚处罚方式

刑罚是以剥夺犯罪者特定的权利为前提的,我们要讨论是否应该创设一种适合人工智能的刑罚方式时,首先要考虑人工智能是否拥有权利,拥有何种权利,只有明确这点,才能起到刑罚的效果。我国刑法中包括的主刑是针对自然人的,附加刑是针对自然人、法人而设置的,由于人工智能无法享有和自然人同等的生命、财产和自由,使得当前以剥夺生命、自由和财产等为主要内容的刑罚方式不能适用于人工智能,即并没有完全针对人工智能的刑罚方式。

无论是删除数据、修改程序还是永久销毁,这些惩罚方式归根到底都要回归自然人、法人身上。因此,可以增设这一类的刑罚方式,当人工智能出现危害社会的行为时,由于自然人、法人没有尽到相应的义务,就要对人工智能删除输入的数据、修改或变更程序或者强制销毁人工智能实体。

此外,还可以规定人工智能的设计人员的准入标准,对造成严重社会危害性的人工智能的设计者,禁止一段时间或者终身不得从事与人工智能有关的职业,将其对社会的危险性降到最低。还可以在刑事法律中严格技术的发展,将技术的发展方向以及速度控制在人类手中,防止出现可以毁灭人类的人工智能的出现。

结语

人工智能并非横空出世的新事物,尽管它对既有法律制度体系会造成一定程度上的冲击,但远未达到颠覆性冲击的地步。法律应当重视人工智能可能带来的种种新的变化和风险,但不能过分地拔高人工智能的法律地位。强人工智能阶段,机器人超出预先设计和编制的程序范围外,实施了危害社会的犯罪行为。这就表明它实施此行为是在自主意志的支配下,体现的是自我意志。对于人工智能的法律地位,究竟赋予其法律人格,还是将其视为客体的物,需要法律与技术的充分准备。

刑法视野下人工智能主体问题探究
后台-插件-广告管理-内容页尾部广告(手机)
标签:

评论留言

我要留言

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。