讲述智慧执法的现状,了解人工智能体系在现代执法中应用

人工智能
后台-插件-广告管理-内容页头部广告(手机)
人工智能与法律的对话.2

第九章 人工智能与执法

[德]蒂莫·拉 德马赫(Timo Rademacher) 撰(1) 徐 涛 译(2)

人工智能正迅速地具备自动发现疑似(违法)行为的能力(智慧执法)。在某些领域内,相对于警察人力所能做的范围,技术已经能够比较好地全方位地承担起发现疑似(违法)行为的任务。在智慧执法技术能够发挥积极作用的领域,立法者和执法机关都应当考虑到相关技术的使用。不幸的是,德国宪法法院、欧盟法院和美国联邦最高法院都在艰难地致力于发展出令人信服和清晰的准则,以引导立法机关和行政机关的决策过程。本章努力提供这些指引:第一,如果基于人工智能的执法技术被使用,那么立法者需要通过立法条款以保持人的可问责性。第二,在可能适用的领域,人工智能执法应当克服人类执法工作中常年困扰司法权的歧视特征。最后,假定智慧执法承诺一个更加有效和更广泛的法律执行(某种意义上的“完美”法治),作为民主社会,它将使我们作为民主社会来决定我们是否愿意、何地以及何时保有不服从法律统治的自由。

一、引言:智慧执法

以警察权为代表的执法权一直都在试图变得更加“智慧”。这就是说,全世界范围内的警察和其他执法部门都在努力通过人工智能和大数据技术提升他们的视觉能力、听觉能力、嗅觉感知以及记忆力。首先,本章的目标是整体上描述“智慧”执法技术在德国、欧盟和美国的使用情况(参见第二部分)。1第三部分将要检视上述三个法域内相关的宪法框架以及相应的法学理论。在本章看来,这个分析将表明是否可以为了执法目的而使用人工智能技术的问题,法院并没有涉猎(所有的)权利问题以给法律和政治讨论提出建议。在第四部分,为了构建智慧执法不同于人类执法的特征,本章将试图提出一些问题,同时也会给出一些(很初步的)答案。

在我们开始讨论智慧执法的现状之前,作出一些特别的界定是有必要的。2基于目的,本章将“智慧执法”界定为“疑似(违法)行为的自动发现”。如果有充分的准确度、精确度和充分性表明曾经、正在或者将来有违法行为的存在,3那么相关行为就具有违法嫌疑。在界定“发现”时,本章仅仅指的是公共机关用来发现先前未识别出的违法嫌疑的侦查技术。这当中并不包括仅仅用来补充证明其他途径发现的违法嫌疑的技术。4最后,“自动”表示相应的线索并不是通过人工手段发现的,诸如执法人员在街上巡查、听到呼救或者解读金融交易数据等。作为一种替代,大数据技术被用来识别出这些线索。第一步,这些技术首先利用机器学习5从过去的违法行为记录中发现行为的模式。第二步,它们(在一个高度抽象的水平上)将这些模式运用到现实生活中去,构成了功能上等同于人类执法者看、读、听、嗅的发现机制。

二、智慧执法的现状

1. “看”

尽管被人权维护团体强烈抗议,6智能视频监控软件在近些年来还是取得了显著的进步。7美国8和英国的执法官员在某些特殊领域已经开始大规模地测试或者常规使用面部识别技术了。9大部分由于历史的原因,德国更加不愿意使用视频监控设备,而不管它是否“智慧”。10然而,即使在德国,2017年至2018年,联邦警察在柏林的一个火车站进行过一个试验性的计划。根据联邦内务部的报告,面部识别技术的测试结果令人印象深刻。11假阳性错误概率(也就是错误地报告一个“袭击”)据说可以被降低到0.00018%。12

被称之为行为识别的系统被寄希望于发现违法嫌疑活动的行为模式,诸如正在进行的抢劫、毒品交易、诈骗等,13甚至还可以给需要救助的人予以帮助。14一个特别的综合行为识别系统(领域识别系统)有可能会在纽约市得到全面运行。15它连接并记录安装在曼哈顿区大概9000个闭路电视摄像头传递过来的视频资料,并(按照设想的情况)及时通知执法人员正在发生的疑似违法行为。执法人员还能够回放查看触发警报的视频片段。如果警报被证明属实,他们可以及时介入从而避免进一步的侵害或者损失。由于记录可以保存一个月,16警察还可以在侵害行为发生之后基于惩罚的目的跟踪犯罪嫌疑人。

从终极意义上来说,任何形式的图像识别技术都构成了一种等同于人类“看”的功能。基于国家命令使用此项技术进行先发制人的执法引发了诸多争议。其中争论比较激烈的,是欧盟委员会关于数字化单一化市场中版权问题新提案的第13条第1款。该条款明确地鼓励信息社会服务提供商利用内容识别技术,阻却受保护作品在服务提供商网上的可获得性[即利用一种叫上传过滤器(upload-filters)的技术]。然而,伴随着抗议团体和影视产业部分人员成功的游说,欧洲议会拒绝了此项提案。17

2. “读”

在美国,大数据技术被用来帮助或者替代执法人员筛查社交媒体信息,18警务19和商务数据库,20金融交易信息和税务档案,21还有来自通过热线电话求救22和举报虐待儿童23的初始数据。所有的这些活动都致力于积极地发现涉嫌违法行为的模式,包括已经发生、正在发生或者未来可能发生的各种侵权行为。24近年来,美国25和德国26都特别关注属地型警务预测。属地型警务预测指的是软件依据大数据分析验证的犯罪学理论,通过挖掘某一地区内过去的入室盗窃行为或者汽车偷窃的报告发现犯罪行为模式,进而预测未来同类犯罪的发生(临近重复,near-repeats)。在文本数据(而不是图像信息,参见前文第3段以下)分析中,算法被设计用来从事数据的挖掘的工作,功能上等同于人类的“读”。

再一次地,相比于他们的美国同行,德国立法者更加犹豫是否要允许执法机关依赖于采用属人型数据分析的数据挖掘技术。27受到信息分权概念的影响28(参见后文第14段),德国政府机关一般将个人数据存在不同的数据“仓”内。这些数据仓都有着不同的特殊用途而且原则上并不相连。一旦收集数据的目的得到实现,数据就会被迅速删除。此外,相比较于著名的芝加哥“热名单”,29德国执法部门很少利用社交媒体监控、网络分析和数据挖掘这些技术:所有的这些技术都是被用来区分出未来犯罪行为的潜在行凶者或者受害者。近来,在经受了多起恐怖袭击之后,施加在(自动)数据分享和当然的数据挖掘上的限制受到了严厉的批评。需要注意的是,2017年柏林的一起事故据说就是因为不同执法部门之间数据不充分共享造成的。黑森州是第一个通过采用美国的智能技术来应对这类批评的州。30帕兰提尔公司(Palantir Technologies,Inc.)设计和运行的软件使得警方可以针对某个特定人进行跨多个警方数据库(甚至包括美国有关部门传送过来的社交媒体数据)的综合检索。即使这种自动数据共享可能事实上代表了一种对德国传统的典型破坏,31但是它仍然不是本章第2段中界定的智慧执法。因为,从它的运作来看,人工智能技术仍然仅仅是被用来作为补强个人的违法嫌疑,而不是发现疑似的违法行为。

有意思的是,与基于执法目的利用私人实体从事属人型数据挖掘相比,德国立法机关并不呈现出相同的迟疑。作为政府指令私人执行的大数据分析,我们可以在《德国反洗钱法》(German Money Laundering Act)中找到一个例证。它要求银行机构对所有的交易记录进行监控以发现从事恐怖活动或者洗钱的金融交易行为。32在更多的德国和欧盟的立法例中,即使没有公开要求私人主体监管或者过滤它们的商业活动,不依靠提前介入式的过滤技术很难保证法令能够得到遵守(参见本书科伦克文章的第40—42段)。

考虑到欧盟法律的首要原则,德国至少在一些特殊领域内需要重新考虑它对执法机关使用模型分析的严格限制。举例来说,欧盟《旅客姓名登记指令》(Passenger Name Record Directive)第6条第2款,要求欧盟成员国授权本国执法部门分析乘客登记的信息,“以服务于更新或者新建准则的目的……进而能够识别出牵涉到恐怖袭击或其他严重罪行的人员”。33德国《旅客信息法》(Fluggastdatengesetz,德国关于乘客姓名登记的立法)第4节中执行了上述义务。该法允许联邦刑事警察局对所有到港或者离港的航班进行模型分析,从而发现过去或者未来特定的重大犯罪行为。34

3. “听”

与图像识别和文本挖掘相比,学者们很少关注与违法嫌疑行为声音模式有关的“听”(即“听觉监控”)35但是,它已经在具体的运用过程中了。比如,根据《纽约时报》(New York Times)的报道,截至2018年8月,有90个美国城市使用了ShotSpotter软件(在枪声探测中最好的软件)。36这款软件据说能比人类目击者更快地对枪声作出反应并及时向警方发出警告。ShotSpotter与Verizon公司合作计划将它的软件连接上Verizon的光感网络系统(Light Sensory Network)。这个光感网络系统安装在全美的路灯上,这将会极大地提升“听”人工智能技术的可行性和可信度。37

4. “嗅”

我们对用“听”侵入的软件作出的评估甚至比具备“嗅”能力的监控技术更加真实。迄今为止,很少有“嗅”能力的相关技术。然而,近期报纸的文章中建议应当在能够识别“特殊气味”疾病的气味软件研发上作出一些进步。38我们不需要太多的想象便可以预见到“嗅味”设备取代机场以及其他公共场所内被训练用来发现毒品、爆炸物或者走私品的警犬。

5. 随时随地且全部储存

关于人类执法活动和机器学习的诸多比较表明,从功能上来讲,智慧执法并不具备开创性。当然,二者之间的相似性可能是被夸大了。二者还是有比较明显的差别。尤其,在本章第四部分还会进一步讨论,该技术存在的一些固有的缺陷。39但是,有一个突出的差异并且是智慧执法技术被推到首要位置的理由在于:这项技术能处理大数据,而人类不行。被赋予感知科技的能力增幅,我们再一次形象地说,智慧执法可以在任何时间和地点“看”“读”和“听”。40人工智能能够内部连接并存储相关信息以供执法和紧接着的司法审查无限次检索。41尽管人类官员还是更擅长理解和融合小规模的数据(同时也因此被用来确认人工智能监控技术发现的违法嫌疑行为,参见后文第31—34段),但是仅仅基于实践的原因,他们无法同时在所有的地方连接并记忆42所要搜集的数据。总有一天,智慧执法能够准确地被提供具备互相充分连接的数据资源。43

三、宪法框架

接下来的分析将试图翔实地展现德国、欧盟以及美国的最高法院将它们各自的宪法条款(虽然这些条款在计算机时代并不是都能够适用的)适用于现代智慧执法的努力。一方面,德国和欧盟法律与美国同类规定比起来,对国家实施的监控措施有非常小的容许度。另一方面,尽管在结果上有所不同,三家法院事实上却十分依赖类似的观点以处理智慧执法带来的机遇和挑战。

1. 德国

德国宪法的起点是很明确的:如果相关信息可以通过公开渠道获得,执法官员并不需要特别的法律授权以从事看、听或者读的行为。44但是执法官员在下列情境中必须要有经议会承认的特定的法律授权:试图进入、搜查或者监控特定“空间”(如住所、45硬盘等46);试图截获正在进行的通信;开始系统性地搜集特定个人的数据信息。47在这些情境中,为了监控技术的立法以及随后具体运用的合宪化,一些准则必须得到满足。其中一个是立法中必须要求的,即警方需要证明在开展监控措施之前已经出现某种针对个人场所或者个人的违法嫌疑。48

确认自动侦查嫌疑行为的合宪性要件似乎还不是很明确。德国宪法法院关于自动监控系统的裁判(某些时候)看起来是矛盾的,49同时(大部分时间)是过度规整的。这种司法规整来源于1983年的“人口普查案”(Volkszählungsurteil)。在该案判决中,法院“发现”了《德国基本法》中未曾写明的一项宪法性权利,即信息自决权。这个权利被界定为个人有权决定由谁来持有或使用其个人数据。50从概念上来讲,这个权利是基于一个假设,即如果国家通过信息技术手段收集、整理和(或者)存储相关信息,那么涉及个人的数据都是重要的(在这个意义上讲,所有个人的数据都会存在潜在的危险)。51毕竟,国家机构中(或者更确切地说,国家雇员中的一些无赖)会试图整合不同来源的数据,制作个人数据档案,最后构造一个奥威尔式的“老大哥”国度(“寒蝉效应”)。这个概念取代了旧有的“领域理论”(Sphärentheorie,关于不同人格领域的理论),52在某种程度上可以与普通法相比较。53

在1983年判决之后的岁月里,很多关于国家监控和信息权的法院判例和相应的法学研究都是关注于“修剪”这个过度宽泛的假设及其相应的后果。54人们在过了一段时间之后才意识到,信息自决权更多的是针对立法者的一个授权,要求他们去设计一套适应现代信息处理的法律框架,而不仅仅是创设了一个类似于财产权的权利。55

然而,大量的德国判例和学说致力于个人数据的自动处理过程模糊了一个事实,即判决涉及以某种模型分析方式发现可疑证据的软件还非常少。这里有两个分别是2008年和2018年的56关于自动车牌识别器(ALPRs)的联邦宪法法院判决。还有一个是2006年的栅格搜索(Rasterfahndung)判决。57所以,我们应当谨慎地得出一个一般性的结论。我们可以比较确信的是,一个特定的智慧执法系统是否合乎宪法,一般而言取决于它是否能够通过比例原则的测试。这个测试一边计入信息自决权受到侵犯的程度,另外一边计入国家所追求目标的比重。58很显然,如同大部分宪法之下的平衡措施一样,这个测试并不能提供很多的指引。所以,宪法法院关于智慧执法的判决变得非常难以预测。虽然如此,退一步讲,我们还是能从法院的判例中发现三个反复出现的观点,从而可以有效地塑造德国现代监控技术的使用规范。首先,一个不符合比例原则的典型就是这个技术运行得并不好。例如,产生太多的假阳性错误,无正当理由使得个体面临相关人员的严格审查。59相反地,在某种程度上有些自相矛盾的是,有的法院判决表明使用智慧执法技术的一个负面因素是(或者如果)它相比较于人类监控显得更强大、高效能和有效率(参见第12段)。60最后,技术性提升的监控技术仍然会因为那种超人类的高效,被视为创造了一种“寒蝉效应”的状态,不仅仅压制了非法的行为,而且也压制了合法的甚至是社会所需要的行为61,可以说,“你永远无法知道”(参见第15段)。62

然而,伴随着大数据警务变得越来越精确,第一点反对意见将会大幅度减少。63但是,其他两个方面的意见在某种程度上似乎比较难以缓和。例如,司法审查的一些行为(有争议的是,这些行为并不是司法性质的,而是政治性的甚至从本质上是情绪性的)。当然,由于禁止所有的自动监控并不是法院的一个选项,我们很容易会将过去只针对住所或者即时通信的宪法性保护措施(参见第14段),扩展到所有技术升级的监控上。也就是说,为了使得智慧执法合宪化,第一,一个特别的立法基础是需要的。第二,只有在警察能够事先证明在特定的环境中有充足的可能性,即某人或者某地会有犯罪或者其他违法行为的嫌疑时,相应的立法才能够允许使用相关技术。64最后,监控不能够被允许在全国范围内展开,例如所有地区无所不包式的监控。65显然,上述措施中的第二点引发了智慧执法理念很难被解决的一个紧张关系:当技术在侦查违法嫌疑时处于最佳的状态,而人类由于实践中的一些原因无法做到的时候(参见第12段),要求警察证明应当使用技术的嫌疑存在,是有问题的。66

2. 欧盟

随着《欧盟基本权利宪章》于2009年开始施行,欧盟法院开始加强审查成员国和欧盟立法中涉及执法和公共监控的内容。早期的判例法紧密地跟从欧洲人权法院的相关判例,因而在面对立法者的时候有较高程度的司法谦抑。67然后,近来欧盟法院意图很明显地要将信息自决权引入欧盟法律,其中主要内容大部分是德国人口普查案中的判决要旨以及相应的合比例性测试(参见第15段)。68重要的是应当牢记,伴随着欧盟二级立法在数据保护领域内的广泛适用,69几乎所有成员国关于执法的立法,不管其是提前介入式的或是惩罚式的,都进入《欧盟基本权利宪章》的适用范围。

欧盟法院新的措施将德国司法判决中的不确定性同时也传到了欧盟法律中。再一次,欧盟法院涉及智慧执法的判例法中包含了两个具有欧盟特色的面向。第一个似乎被这一现状加强了,即:欧盟或者成员国的有关部门不会仅仅为了未来的执法需求(目前未知)而保留个人数据。相关立法中也不会要求私主体(特别是电子通信服务运营商)在相应的运行方案中保留个人数据。这就意味着,在欧盟中,如果基于执法目的保留的信息是合法的话,必须要有一些指示,表明某个人或者某个地方的数据资料可能包含了涉嫌违法行为的信息。70当然,在无差别地保留数据的时候并没有什么“智慧”。然而,鉴于运用相应技术的一些模式会随着实践不断地延展(即功能和作用得到不断地发掘),71为了使它们运行正常,最初收集的那些看似没有嫌疑的信息还是十分必要的。72

这就引导我们来到与我们目的相关的第二个决定,也就是法院关于《欧盟—加拿大关于旅客姓名登记的协定》第1/15号观点。类似欧盟《旅客姓名登记指令》第6条第2款(参见前文第9段),该协定要求所有从欧盟出发飞往加拿大的飞机承运商向加拿大主管部门提供乘客的个人数据。相关部门将会被授权对这些数据使用模型和有关标准进行处理。其目的在于发现能够揭示未来或者过去特定罪行的数据。此外,无论最初的信息筛查结果如何,加拿大都会被允许保留相关数据五年。与之前的判例法一样,欧盟法院并不接受这个关于数据保留的条款。在法院看来,这并不合乎比例,73主要是因为欧盟并没有证明为什么即使是在最初的信息匹配不成功的情况下,还有必要保留相关数据五年。74这个争议自然地引发了这么一个问题,即如果保留时间能够与使用相应的“模式和标准”所需要的时间保持一致,这个协定能否通过合比例测试。需要重点关注的是,飞机承运商为模型分析提供数据的义务本身就是在特定的环境下,加上相关技术是可靠的,就会被认为是符合欧盟法律的。75在第1/15号观点中,欧盟法院只接受这么一个事实,即跨境行为的发生可以构成充足的基于地点的嫌疑。结果证明,在它的衡量措施下,对个人数据的搜集和紧接着的“栅格化”处理就是对个人信息自决权的侵犯。76

与德国法相比,我们要从欧盟法院关于信息自主权还是碎片化的判决中抽取一般性的结论应当更加谨慎。77然而,即使我们考虑到了它合比例性测试可疑的本性,但从第1/15号观点来看,在应对欧盟和成员国的立法者采纳智慧监管技术时,78欧盟法院可能比德国同行更加具有包容性。欧盟法院的判决允许这些措施在特定领域内的适用,只需要具备相对比较低和抽象的最初嫌疑即可。79

3. 美国

直到最近,美国的法律标准与德国和欧盟法律相比,都还被认为是一个几乎完全“缺少针对公共场合内一般观察监控的宪法性保护措施的状态”。80一般而言,美国宪法第四修正案作为对抗监控措施的主要宪法保护,81并不适用于公共场合。根据联邦最高法院“卡茨案”判决,公民在从事公开活动的时候并不具有一个法律承认的隐私期待。82所以,原则上,只要相关信息(紧接着还会被处理的)是以某种公开形式存在的,美国执法机构就被允许通过技术性手段提升他们视觉能力、听觉本领、嗅觉感知和记忆能力。83因此,美国关于智慧监控的法学讨论中很少讨论到相关监管是否合宪的问题。84取而代之的是,大部分学者关注于评估自动生成的嫌疑是否能够构成第四修正案中的“合理理由”。85“合理理由”主要判断的是那些对个人隐私更具有侵略性的侵入行为(搜查、窃听、逮捕、热感应监测等)。86在传统的第四修正案的解读中,这些被认为是值得给予宪法上保护的。87这个理论背后的“隐私的合理期待”学说却是从一开始便充满了争议。88但不管怎么说,从智慧执法的发展前景以及同德国和欧盟法律的比较来看,这个学说提供了一个更为直接的测试。同时,这个测试高度的宽松。这也就解释了为什么在本章第二部分中介绍的大数据技术能够在美国得以测试或者运用。

2012年的“琼斯案”据说是“颠覆了第四修正案的相关学说”。89呈现在美国联邦最高法院面前的事实是非常确实、清楚的:警察在不符合第四修正案设定的条件下,在琼斯先生的车上安装了GPS定位装置,同时持续跟踪他的行动轨迹28天。虽然几乎他所有的活动都是在公开场合实施的,但是最高法院一致认为警方已经侵犯了琼斯先生在第四修正案项下的权利。在多数意见中,具有决定性的事实是GPS定位设备是物理性地安装在汽车外侧。根据五个大法官的法律意见执笔人安东宁·斯卡利亚(Antonin Scalia)的观点,这么一个物理性的侵犯在被实施的时候毫无疑义地构成了第四修正案条款中提及的“搜查”行为,因为政府基于获取信息的理由对个人的财产实施了物理性的控制。90基本上来讲,这个判决意见是源于长期以来普通法中侵入理论(“基于传统财产权”的理论)的一种隐私概念。91

塞缪尔·阿里托(Samuel Alito)大法官会同金斯堡(Ginsburg)、布莱尔(Breyer)和卡根(Kagan)三位大法官根据21世纪监控技术发展的实际情况,转而选择了一种第四修正案学说的升级版解释。他批评多数意见中根据18世纪的侵权法判例作出判决这一审理思路并不明智。92但是,具有争议的是,阿里托观点中的核心部分看起来也是历史性的。93它基于这么一个假设,即对于(大部分)犯罪行为而言,社会的期待是执法机关及相关部门不会(事实上,基本上,根本无法)在相当长的一段时间内秘密地监控和记录单个人车辆的每一条行驶记录。94相反地,社会大众会认为“短时间内监控个人在公共道路上的活动”是合理的,甚至不需要事先的合理理由。在涉及调查一些极端犯罪的过程中,长时间的秘密监控也是一样地可以被接受。95概念上来讲,这四个大法官提到了不同犯罪条件下社会的不同期待。这个观点是源于有限的资源,即事实材料的缘故,在过去导致了不同形式的执法效能,而且在未来还会继续存在,虽然在现代监控的时代中主要是作为一个法律的问题存在。这个措施本质上是经验性的,由于它的前提是社会公众的期待,而不被任何经验证据所支持,至少不是在“琼斯案”中。阿里托大法官通过引入了相关技术的实质性部分,同时明确邀请立法者界定可期待标准,在某种程度上弥补了这一缺点。96

具有代表性的,索尼亚·索托马约尔(Sonia Sotomayor)大法官主张要在罗伯特(Roberts)大法官、托马斯(Thomas)大法官、斯卡利亚(Scalia)大法官以及肯尼迪(Kennedy)大法官偏好的基于财产权的理论之中加入一个更加现代化的测试方法。除了他以外,没有一个大法官注意到合法的监控措施可能会带来始料未及的寒蝉效应。97

基于“琼斯案”中提出来的三个线索,我们很难预测最高法院最终是否会以及如何“升级”第四修正案的学说以适应21世纪的监控活动。正如安德鲁·弗格森(Andrew Ferguson)关注到的,九个联邦最高法院大法官中的五个选择的是这么一种升级路径,即未来,美国警方将有义务证明“合理理由”,即使是用“听”“读”等监控技术获取某些公开形式存在的信息。然而,迄今为止,只有一个不同的最高法院多数意见采纳了这个升级方案。在“卡朋特案”中,法院提出了一个问题:警察是否需要“合理理由”从手机运营商(即第三方98)处获取单元位置信息。这些记录囊括了卡朋特先生127天的行动记录。在很明确地援引了阿里托大法官在“琼斯案”中基于效能的推理之后,法官对这个问题的回答是肯定的。99但同时,法官强调“今天这个决定是一个个例”(四个大法官表示反对),而且不会“认为传统的技术或手段(例如安保摄像头)会有问题”。100与德国宪法法院的判例相比较,最高法院所建议的方式仍然看起来对不需要证明事先嫌疑的智慧执法手段较为宽容。

四、三个主要的问题

本章第二部分的讨论揭示了模式识别技术不断增长的运用。这些模式识别技术可以发现并能够证明国家干预违法嫌疑行为的合法性。与此同时,欧盟和美国的法院似乎发现它们在既有的权利体系(尤其是隐私权)中很难“升级”相应的宪法框架以适应智慧执法技术。在接下来的第四部分将不会试图检讨第三部分中提及的不同司法路径,以证明在适用的宪法框架下哪个更具有说服力或者甚至是“正确”的。相反,本章会试图充实智慧执法的三个特别的特征。这三个特征将智慧执法与人类执法区别开来。同时,在本章看来,这需要也值得立法者、法院和大多数学者们予以重视。

在开始讨论这些特征之前,本章有必要陈述一个明显的观点:智慧执法当被大规模适用的时候也会出现失灵的情况。也就是说,机器学习模型运用到实践中时必须被充分地“编排”,允许充分地、101个性化地、102清晰地和准确地103预测那些即将发生或者已然发生的违法行为。确定性不能也不必被要求。104就像缉毒犬那样,105这个技术还必须在常规的基础上得到验证。106否则,根据德国和欧盟的宪法规定,使用模型技术将会被彻底禁止。(参见前文第17段和第21段)。在美国法下,没有被证明可信(至少根据测试数据)的模型将不会满足第四修正案下的“合理理由”标准以证明采取更具侵犯性的监控措施的合法性(参见前文第23段)。107可能更加重要的是,仅仅作为一个事实,警察不愿意使用这些误报太多的模型,如报告违法的,结果是没有危害的(假阳性)或者“忽视”了很多危险的和(或)犯罪情形(假阴性)。108毕竟,用来评估通过智慧执法技术获得的发现并采取相应措施的人力资源是十分有限的。此外,太多数量的假阴性或者假阳性错误会最终降低对智慧执法技术的大众认可。这会导致法律上的禁止。

如果说上述内容是公理性的,或者说是不证自明的,那么什么应当是立法者、法院和学者们应当彼此讨论的,以及更重要的是,与数据科学家、执法力量以及人权组织沟通的关键性问题呢?109在本章看来,智慧执法技术似乎有三个特征以区别于人类的警务活动,应当予以最大的关注。第一个代表了一个挑战(参见第31段以下);第二个代表了一个机会(参见第35段以下);第三个则是一个艰难的选择(参见第39段以下)。

1. 一个挑战:使用最先进技术的信息还是不民主的信息?

最近一些年我们经常听到一种呼吁,即要求“算法透明”以便于公众和司法审查。110然而,对算法透明的呼吁却忽略了一点——至少它通常指的是源代码的透明性。111,112举例来说,对于法官来说,是否知道DNA分析技术背后的科学原理并不是很重要。113即使有专家的解释,无论透明与否,也只有很少一部分法官能够自己理解相应的这些数据。还是前面一个例子,DNA技术分析的结果可能在一个谋杀案件中被作为关键性证据。类似地,当讨论缉毒犬发现疑似毒品时要求进一步检查时的示警行为是否满足第四修正案中的“合理理由”时,我们没必要知道此时警犬大脑内神经元活动的情景。114这两个非常不同的例子应当足以表明我们不应当仅仅因为在输入和输出环节之间的数据处理环节并不向执法人员、法官或者公众公开,拒绝优化信息搜集流程的技术革新。

在另外一方面,米勒·希尔德布兰特(Mireille Hildebrandt)已经非常正确地观察到,“作为认知目标的信息”和“作为形式化继而改变我们认知的媒介的信息”二者之间的差别。115后面一个现象是有问题的。116鉴于民主社会要求政府部门必须基于可获得的最优信息行动,例如,利用现代技术提供的机会作出事实信息充分的决定。用希尔德布兰特的话说,我们应当防止信息技术变成指令、国家行为等形式的代表。毕竟,这个技术不是被选举出来的,也不能根据刑法或者行政法为它的“错误”负责。

所以,挑战是要为智慧执法创造一种包括了对人可问责的“机构性设置”(参见本书威施迈耶文章的第36段)。为此,被要求以这些技术的结果作为调查行为基础的官员们应当被放置到某个位置上。在这个位置上,他们能够为他们采取的行动承担起应当承担的实质性责任。同时,调整利用技术的行政决定的规范必须考虑到大多数国民代表并没有计算机科学方面的学历。所以,在防止不民主的执法形式上,算法透明并不需要,也不充分。117相反,可问责性需要公开和人工重新评估触发警报的输入数据。例如,向官员们展示“智慧”监控摄像头识别出的有关毒品交易的录像片段。118如果输入数据的来源广泛,甚至有可能是结合了“读”“听”等多种形式,软件需要以特定信息接收者可以理解的方式方法,提供给官员们触发警报最为关键的特定数据片段。119理想的情况下,这个公开发生在执法人员根据自动警报采取行动之前。然后,如果人类官员们可以根据人的标准(包括了所有的传统认知模式,如执法经验、专家验证等)重新架构犯罪嫌疑,120同时他们最终可以在司法审查中为自己的行为辩护(如本书威施迈耶文章第36—39段中,特别是第37段中所说的,需要具备给他们自己行为给出理由的能力),那么执法人员应当被允许基于警报采取行动,就像这些违法嫌疑行为是通过人工途径发现的一样。121换言之,如果这些执法人员无法以自己的方式重构违法嫌疑,他们将无法承担其责任,而且最终必须避免采取行动。

这个原则的一个例外应当被接受,如果警报基于生理或者认知的原因无法通过人工方式重新评价,例如,它超越了人类的嗅觉范围(就像缉毒犬那样)或者时间如此紧迫以至于无法重新评估具有嫌疑的社交媒体邮件。在这些情境中,可问责性不可避免地会产生问题。然而,类似于缉毒犬的使用,122执法人员基于过去的实践证明是准确和精确的模式作出反应行动,仍然应当被认为是合法的,如果这些反应行动被限定在接下来的调查中和(或者)问责要求较低的临时性措施。

2. 一个机遇:具有偏见的执法还是透明的偏见?

机器学习技术是从过去中“学习”(参见前文第2段)。作为一个结果,它们不会也不能保证一个“干净的开始”或者“中立的结果”。123如果数据来源于充满人类偏见的旧有事件,且被人们不加修正地使用,那么软件将展现出并最终产生类似的偏见。124所以,一点都不奇怪的是,使用美国警方数据的法律技术软件(COMPAS)最终展现出对黑人的歧视。125

然而,为了避免执法过程中持续存在的或者说是将永久存在的歧视,答案并不是禁止使用智慧执法技术。相反,解决方案是将超越技术范畴的人类偏见透明化;126继而从技术中清除这些偏见。由于清理是可行的,智慧执法事实上确实提供了一个“干净开始”的机会。不同于人类的大脑,被运行的机器可以避免将“年轻+黑色+男性”等同于“合理理由”。127这并不是说我们将很容易发现并移除机器学习模式中的偏见(幸运地是,虽然这比从人类大脑中移除偏见和歧视要容易得多)。128举例来说,仅仅清除模式中的预测变量是不够的。这些变量直接包含了歧视意味,诸如种族、性取向、性别以及宗教信仰等。129相反,我们有必要去寻找被称之为具有区别对待特征的替代值。“替代值”指的是隐蔽地编入敏感的或者禁止的信息分类,同时避免使得自身违法的数据。一个与种族相关的经常被提起的替代值是出生地或者是居住地。130好消息是,已经不断出现关注“非歧视技术工具”的研究文献。131更可喜的是,这些措施中的一些可以在不需要算法透明的前提下,被用来测试相关软件的程序和实体的公正性。132

不幸的是,也有一些坏消息:在为了揭示并最终压制敏感信息的替代值的大多数有效测试中,部分需要“训练”的数据也包含敏感信息,诸如种族、信仰、性别等数据。133否则,它将难以识别出一些看起来无害的数据分类,例如家庭地址这种最终会成为敏感信息的替代值。所以,可能与我们的直觉相反的是,在发展和调试智慧执法软件过程中,不带有色彩或者偏见地看待阶层或者宗教信仰可能会产生更多,而不是更少。

不管怎么说,智慧执法技术仍然给我们提供了一个机遇。如果它们被仔细地核查看得见的或者看不见的歧视,同时,它们也能够以合理的理由向公众以及可能的司法监督展示,134智慧执法可能最终增加人们对执法合法性的认可,特别是在当前执法中因为不合法的人类偏见而声名狼藉的法律和社会领域。135

3. 一个选择:人的执法还是“完美”的执法?

不管是不是民主社会,没有一个社会有足够的执法或者司法资源以保证法律的彻底执行,抑或保证法律的完美实施或统治。相反,传统意义上,法律的执行更多地是依靠遵循而不是强制执行。136并不奇怪的是,不管何种原因,在法律遵循度比较低的领域,这经常会导致人们对法律执行缺陷的不满。137迄今为止,这些缺陷中的大部分不可能被任何一个执法系统克服。这归因于人类在一方面法律命令中无条件服从法律的要求与另一方面人类在遵守法律上有限的可能性二者之间遇到的鸿沟。智慧执法技术将会去填补法律和法律执行之间的鸿沟:对于人类执法官员来说,不可能在所有的城市道路上巡视或者审查每一条银行记录(更不必提因特网上的每一条信息了)。然而,在智慧执法技术的帮助下,这将成为可能(参见前文第12段)。技术将越来越多地被用于发现和惩罚任何违法行为。伴随所谓“不可能的结构”,138相关技术甚至会被用来从根本上阻却这些行为。139

对于一些人来讲,至少在民主社会,这些前景可能看起来很有吸引力。毕竟,这项技术许诺了一个普遍而又(最终)平等的,140即合理法律的完美实施。然而,我猜想大多数读者可能也已经发现这些前景“并不”吸引人。抵制无所不在监控的传统方式要涉及“1984”,141或者在今天就是“社会征信系统”,142即引发奥威尔式的或者中国古代保甲制的威胁。这些威胁会滥用数据以压迫个人主义。143鉴于滥用的可能,据说,全面监控不仅可以抑制违法行为,还可以抑制合法行为(参见前文第17段“寒蝉效应”)。144然而,这个争论将会随着时间而弱化。如果我们周边的智能设备越多(例如智能手机、智能家居、自动驾驶汽车,甚至是智慧城市),145或者越来越多地允许软件来规范我们的每日生活(想象一下,基于人工智能技术的个人助手、智能交易、智能银行账户),那么我们将会更多地在我们的生活中“引入”技术。然而,这必将会监督我们,而不是工作良好那么简单。所以,如果说监控技术真的能够制造一种“寒蝉效应”,那么我们为什么不对在我们私人生活中自愿地使用了相机、智能手机和检索筛选技术感到“充满寒意”呢?146本章相信,我们还能保持冷静的原因是我们(至少我们中的大多数)确实希望国家机关介入,如果私人滥用我们数据的话,同时(更为重要的是)不希望国家机关非法获取并滥用此类技术。换句话说,似乎我们(再一次强调,至少我们中的大多数)希望生活在总体来说能够遵循宪法和民主规则的国度里。

如果刚才所说的是真实的,那么“寒蝉效应”这个概念将会成为另一种情感的简单借口。这种情感是我们在面对“完美”执法允诺(从这个意义上说,是“完美”的法律统治)时的不安。本章认为,真实的原因封存在阿里托大法官在“琼斯案”中的意见里:如果在同样高水平的效能下,任何形式的违法行为都能被国家机关发现(同时由于害怕惩罚而抑制自己的行为或者“呆若木鸡”),这并不符合“社会的期待”(参见前文第25段)。换句话说,似乎执法变得过于高效以至于无法认为是公平的。147爱荷华州参议院148最近通过的在全州范围内禁止使用交通执法摄像头,这提供了一个例子用以说明立法者屈从于公众的意志以存在“相当大的成功机会”149摆脱特定的违法行为。所以,即使可能没有“犯罪的自由”,也存在一个广泛的期待,即对于公众而言,至少就某些法律规则有选择是否遵从的权利,同时最终有机会逃避抗命。150

完美执法的前景,151当具备了智慧执法技术的“看”“读”“听”“嗅”以及全部技术的能力(参见前文第12段)之后,将会事与愿违。所以,考虑到某些形式的违法行为,看起来有些矛盾的是,通过与智慧执法(很有可能是完美的)相比,我们更倾向于选择人工机制执法(似乎没那么完美)。“犯罪的自由”也许值得保留。152法院没有足够的能力确定这种期望何时值得关注,何时必须将其视为非法。所以在这个维度上,阿里托大法官可能是正确的:“在这个技术急剧变化的环境中,对于隐私问题最佳的解决方案可能是立法。”153换言之,相比于一个(宪法性)法律的问题,这更是一个(社会的)选择的问题。我们需要去确定必须无条件服从的法律规则,将它们与无需面对智慧执法以保留“遵从(与否)自由”的规则相区分。154

五、结论

人工智能技术逐渐能够自动探查违法嫌疑行为。这些行为反过来需要进一步的调查最终引发执法机关的防御性或者压制性措施(参见第二部分)。在一些特定领域内,技术已经比人类执法人员更好地承担起违法嫌疑的发现工作,特别是在数量方面——同时,在即将到来的数年内,计算机的运行能力将有显著的进步。所以,如果人工智能技术事实上能够运行良好——伴随着在相应的适用领域内“足以”依赖的标准——那么立法者和执法部门就应该考虑适用这些技术。迄今为止,德国宪法法院、欧盟法院和美国联邦最高法院都在努力尝试发展令人信服的清晰的准则以引导立法机关和行政机关的决策过程(参见第三部分)。本章第四部分努力提供一些准则:第一,立法者应当制定法律条款以保证人的可问责性(参见第四部分第1点)。这个至少适用在民主社会中的执法工作,因为民主是建立在对人(或分别由人)授权和行使权力的基础上的。第二,如果有可能的话,人工智能执法应当被用来克服困扰司法机关数十年的人类执法中的歧视问题(参见第四部分第2点)。最后,也许有些违反直觉的是,在更加有效甚至是无处不在的执法这么一个意义上来讲,一个“完美”法治并不是一个那么完全令人值得期待的愿景。(参见第四部分第3点)。所以,完美执法技术的有效性迫使我们要决定社会是否、何地以及何时应当保有不服从法律统治的自由。

注释

1. 在这么做的过程中,本章也需要一些更为深入的讨论。诸如,本书布赫霍尔茨的文章,本书斯凯梅尔文章的第32段,以及本书布劳恩·宾德文章的第16段以下,他们各自在法律技术、金融市场监管以及税收执法领域内的讨论。

2. 作为人工智能的一般性定义可以参见本书拉德马赫和威施迈耶文章的第5—6段。

3. 或者其他一些需要国家干预的事件,例如一个谋杀案件或者识别出一个需要逮捕的人。

4. 这个排除了相对来讲比较传统的大数据分析技术,例如呼气分析仪,现场测试套件或DNA分析。这个概念类似于Rich(2016)pp.891—892所主张的概念。他正确地指出即使传统技术可能例外地帮助警察确定已经发生的历史事实,它们也不能基于它们不同的数据集合展开分析,同时就个人违法行为的可能性作出结论。作为智慧执法技术的特征,Rich所谓的“自动匹配违法嫌疑算法”将从高浓度信息中提炼出来的行为模式与违法嫌疑活动进行匹配(cf. para 29)。进一步来讲,这个界定也排除了所谓的“不可能结构”,例如不仅要发现违法嫌疑行为,而且在一个更复杂的层面上还要致力于将违法行为物理上不可能。Cf. Rich(2013), pp.802—804;“U型结构控制”Cheng(2006), p.664,“完美阻却”Mulligan(2008), p.3,数据先占Rosenthal(2011, p.579),同样可以看一个不同的概念。

5. 作为一个概念,可以参见本书拉德马赫和威施迈耶的文章。也可以去参见Rich(2016), pp.880—886, esp.883文中详细的解释。

6. See, e.g., Big Brother Watch(2018), pp.25—33; Chaos Computer Club(2018).

7. 作为对比的,可以参见Candamo et al.(2010), esp.p.215文中提出的技术限制。关于影像技术的综述参见Thomas et al.(2017)。

8. Ferguson(2017), pp.88—90.

9. Big Brother Watch(2018), pp.25—30.关于英国规范闭路电视和相应监控技术的法律框架,参见 McKay(2015), paras 5.181 et seq。

10. 当然,在视频监控的讨论中,历史的敏感转化成一种更为严格的宪法条文解释。Cf. Wysk(2018), passim; Bier and Spiecker gen Dohmann(2012), pp.616 et seq., and infra, paras 17—18.

11. Bundesministerium des Innern(2018).但是Chaos Computer Club(2018)文反驳了内务部的乐观评估。类似的参见RWI(2018)。

12. Bundespolizeipräsidium(2018), p.35.

13. 欧盟赞助的iBorderCtrl项目(www.iborderctrl.eu)是用来发现在边境管控中说谎人员的测试软件。作为首次评估,参见Algorithm Watch(2019), pp.36—37。

14. 例如Bouachir et al.(2018)文中提及,视频监控能够第一时间发现自杀意图。

15. Davenport(2016); Joh(2014), pp.48—50.更多的例子可以参见Capers(2017), pp.1271—1273。在德国也被测试的相应的系统参见本书杰斐尔文章的第9段,和Wendt(2018)。

16. Ferguson(2017), p.86.

17. 现在欧盟2019/790指令的最终版本中,关于内容识别技术的明确指引已经被移除(例如指引第17条)。免除信息服务商使用过滤技术的事实上义务是否有效仍有待观察。自动执法的早期讨论参见Reidenberg(1998), pp.559—560。而Krönke希望信息服务商有一种事实上的义务使用认知软件。See Krönke, para 44.

18. Ferguson(2017), pp.114—118.据称,以色列情报部门广泛而又成功地使用社交媒体监控恐怖袭击行为。参见Associated Press(2018)。关于恐怖主义的一般性讨论参见Pelzer(2018).

19. 包括运作很好的一些技术,如指纹和DNA分析。关于新技术更为批判性的看法,参见Murphy(2007), pp.726—744。更为现代的一些项目参见Ferguson(2017),pp.116—118。

20. Ferguson(2017), p.118.

21. Rich(2016), p.872.关于相关技术最新的讨论参见本书斯凯梅尔文章的第32段和Throckmorton(2015), pp.86—87。关于利用数据挖掘预测避税行为参见Lismont et al.(2018),本书布劳恩·宾德的文章,以及本书杰斐尔文章的第11段中,提供的一个澳大利亚的例子。

22. 例如,私人北极星项目(Polaris Project),该项目分析了在人口贩运案件中的求助电话,以揭示地点,路线,甚至值得警方注意的现金流。

23. 以阿勒格尼县为研究对象预测儿童虐待案件的一个批判性的报告参见Eubanks(2018)文。一个美国国防部高级研究计划局(DARPA)资助的通过检索网上新闻来发现性交易的软件参见Spice(2015)的报告。

24. 在某种程度上也包括了警察权的滥用。Cf. Ferguson(2017), pp.143—162.

25. Cf. Ferguson(2017), pp.63—69.在美国商业应用的软件包括HunchLab, Risk Terrain Modelling(RTM, cf. Caplan and Kennedy 2016, and Ferguson 2017, pp.67—68)和PredPol。

26. 关于德国最新的属地型警务预测的研究参见Seidensticker et al.(2018).一个犯罪学的评估参见 Singeinstein(2018), pp.3—5。一个综合性的措施,包括了其他形式的大数据警务,参见Rademacher(2017), pp.368—372。

27. 对德国警察权的宪法上的限制参见本章第18段。德国人不情愿的第二个原因也可能是大数据驱动的主动栅格化在“9·11事件”之后被德国警察应用时证明效率低下。Cf. German Constitutional Court 1 BvR 518/02 “Rasterfahndung”(4 April 2006), BVerfGE 115, pp.327—331.

28. Cf. Burkert(2012), p.101.意图在各个行政部门之间建立起“长城”。这个概念取代了一直盛行到大概1970年代的信息一体化(基于部门一体化)的旧有概念。Cf. Oldiges(1987), pp.742—743.

29. Saunders et al.(2016),相对而言给出了负面评价。但是,2015年以来情况已经有显著的改善。参见 Ferguson(2017), p.40。

30. Brühl(2018).联邦“警务2020”计划目标在于整合所有联邦警察机构的数据信息库。Cf. Bundesministerium des Innem(2016).

31. Briihl(2018).数据挖掘的法律基础可能是2018年7月4日起生效的《黑森州公共安全与秩序法》(HSOG)第25a(1)(2)条。

32. Section 10 Geldwäschegesetz.关于反洗钱技术的一个个案研究参见Demetis(2018)。另外可以参见本书斯凯梅尔文章的第12段。

33. 2016年4月27日欧盟第2016/681号指令规定了,基于预防、发现、侦查和起诉恐怖活动以及其他严重犯罪行为使用乘客姓名信息记录(PNR)数据的行为。在欧盟和德国宪法背景下的评估参见Rademacher(2017),pp.410—415。

34. 关于德国PNR适用现状的报告参见Bundestag(2018)。

35. 一个罕见的例子可以参见Ferguson(2017), p.88。

36. Schlossberg(2015).

37. 对于早期的听觉监控可以参见Zetter(2012)。

38. Saracco(2017).此外May(2018)文中还讨论了用来发现服用兴奋剂运动员的Al技术。

39. Cf. Rademacher(2017), pp.373—393; Rich(2016), pp.880—886, 895—901.

40. Joh(2019), p.179.

41. Henderson(2016), p.935.犯罪侦查的回溯性的侦查将变得可行。

42. 在大数据警务出现之前,如果警察试图“看到过去”(Ferguson 2017, p.98),他们一般只能依靠人类目击证人。但是,这些证人是众所周知的不靠谱。

43. 可以参见Barret(2016)关于美国连接三千万台闭路摄像头技术的报告。

44. 涉及情报部门的网络搜索巩工作的内容。Cf. German Constitutional Court 1 BvR 370/07 “Onlinedurchsuchung”(27 February 2008), BVerfGE 120, pp.344—346.

45. Article 13 Grundgesetz(German Basic Law).

46. IT系统保密性和整合性的基本权利是从宪法法院的“在线搜索”(Onlinedurchsuchung)案发展出来的(参见前注44),pp.302—315。关于这项权利可以参见Heinemann(2015), pp.147—171; Hoffmann-Riem(2008), pp.1015—1021; Bockenforde(2008)。

47. Constitutional Court “Onlinedurchsuchung”(参见前注44),p.345。

48. E.g. German Constitutional Court 1 BvR 2074/05 “KFZ-Kennzeichenkontrollen”(11 March 2008), BVerfGE 120, p.431;cf. Rademacher(2017), pp.403—405, 406—407.

49. See, e.g., German Constitutional Court “KFZ-Kennzeichenkontrollen”(参见前注48),p.430 with p.399:虽然,一个ALPR扫描技术据说算不上对A个人信息自决权的侵犯,如果A的车牌号码并不与数据库内的信息进行匹配且拍的图片能够迅速删除。A的潜在隐私恐惧(持续观察行为引发的“寒意”)仍然会使得干涉B信息自决权(其车牌号产生了一个“触碰”)的行为违宪。就在联邦行政法院确认了令人不愉快的判决之后,宪法法院推翻了它,现在人为任何形式的视频监控都等同于对个人信息自决权的侵犯。See Constitutional Court 1 BvR 142/15“KFZ-Kennzeichenkontrollen 2”(18 December 2018), paras 45. Cf. Marsch(2012), pp.605—616.

50. 原则上个人有权利在什么时间、在什么范围内披露(个人信息)。German Constitutional Court 1 BvR 209/83“Volkszählung”(15 December 1983), BVerfGE 65, p.42.

51. 在那个视角下,“不重要”的信息不会存在于自动数据处理程序的环境中。Cf. Constitutional Court “Volkszahlung”(参见前注50),p.45。

52. 原则上,球体理论提供了私密信息或者私人信息的加强版保护以免于监控,同时原则上也并不保护处于社会或者公开场合中的信息。

53. Cf. Ferguson(2014), pp.1313—1316.

54. Cf. Poscher(2017), pp.131—134; Marsch(2018), pp.116—124.

55. 参见本书马奇文章的第15—16段。Ditto Poscher(2017), p.132.

56. Constitutional Court “KFZ-Kennzeichenkontrollen”(参见前注48),and “KFZ-Kennzeichenkontrollen 2”(参见前注49)。

57. Constitutional Court “Rasterfahndung”(参见前注27)。

58. 为了进行最大限度的概括,列出了迄今为止(即使不是全部)大多数宪法法院对现代监视技术的衡量标准。Cf. Staben(2016), pp.160, 162。

59. 尤其是关于格栅搜索的判决。See Constitutional Court “Rasterfahndung”(参见前注27),pp.354, 356—357。

60. Constitutional Court “KFZ-Kennzeichenkontrollen”(参见前注48),pp.401, 407。

61. Constitutional Court “Volkszählung”(参见前注50),p.43; Constitutional Court “KFZ-Kennzeichenkontrollen”(参见前注48),pp.402, 430; Constitutional Court “KFZ-Kennzeichenkontrollen 2”(参见前注49),paras 51, 98。

62. 德国宪法法院反复出现的一个观点(“滥用的风险”)see e.g. Constitutional Court “KFZ-Kennzeichenkontrollen”,(参见前注48),p.402.被德国法学界激烈地批评为是毫无经验基础的。Cf. Trute(2009), pp.100—101.

63. 参见本书赫姆斯特鲁维尔文章的第10、19段。

64. 是否对个人的健康、生命或者财产存在一个迫在眉睫的威胁,抑或是警察在判断一个特定地点(犯罪高发区)或行为时候的经验是否充足see for examples of the latter Constitutional Court “KFZ-Keimzeichenkontrollen 2”(参见前注49),para 94, and Rademacher 2017, pp.401—410,取决于相应的监控措施对个人权益的侵犯程度。明显地,那又将需要一个合比例性测试,而结果很难预料。在一些特殊领域内,例如税法(参见本书布劳恩·宾德的文章)和金融管制(参见本书斯凯梅尔文章的第10—12段和第32段的美国部分),国家数据库被常规地“格栅化”,从而实施了一种有限形式的普遍怀疑(Generalverdacht),抑或叫一种随意的监控(anlasslose Kontrolle)。Cf. Constitutional Court “KFZ-Keimzeichenkontrollen 2”(参见前注49),para 94。

65. Constitutional Court “KFZ-Kennzeichenkontrollen”(参见前注48),p.378, recital 4。

66. Rademacher(2017), pp.401—403.

67. Marsch(2018), pp.17—30.关于欧洲人权法院最新的关于监控技术的判决参见Bachmeier(2018), pp.178—181。

68. 在欧盟法院判决C-207/16号“财政部长案”(Ministerio Fiscal, 2 October 2018)第15段中大部分得到了确认。相应的判决主要是基于《欧洲基本权利宪章》第8条“保护数据的权利”。该条款一个更为细致的分析和欧盟法院判决中发生的类似于德国信息自决权的思路转变,参见本书马奇文章的第29—32段。

69. 综上,关于个人数据处理和数据流动的针对自然人的保护(《通用数据保护条例》);考虑到有关部门基于阻止、调查、发现、起诉犯罪行为或者执行刑罚的目的处理个人数据,对个人数据加以保护的规定。同时,还涉及相关数据的自由流动的规定(Directive(EU)2016/680 of 27 April 2016);关注于电子通信领域内的个人数据处理和隐私保护的规定(《电子隐私指令》,Directive(EG)2002/58 of 12 July 2002)。Cf. Dimitrova(2018).

70. 欧盟法院第C-203/15号“Tele2 Sverige”判决(2016年11月21日)第111段:“国家立法机构(要求私人公司存储商业数据)必须要基于客观的证据。相关证据能够区分出一个当事人,而他的数据能够显示与严重的犯罪行为之间一个关联(至少是间接的)。”这在欧盟法院“乘客姓名登记案”(Passenger Name Record)判决(2017年7月26日)第1/15号观点第191段中得到了确认。但是应当参考伦敦调查权法庭(C-623/17),法国最高法院(C-512/18)和比利时宪法法院(C-520/18)基于《欧盟运作条约》第267条提交的转介,而不是批判性地审查欧盟法院友好的数据保护措施。See also ECtHR Case-No.35252/08“Big Brother Watch v. United Kingdom”(13 September 2018), para 112.

71. 举例来说,“智能”视频监控应该是提示在火车站有扒手出没。当然,它至少需要对月台上的情况进行无差别第记录几分钟从而将有偷窃嫌疑的人与四处闲逛候车的人区分开。

72. 此外,这些数据将被用来训练新的算法同时评估已经用于实践的算法。Cf. CJEU“Passenger Name Record”(参见前注70),para 198。

73. “并不……限于严格必要的条件”。CJEU“Passenger Name Record”(参见前注70),para 206。

74. CJEU“Passenger Name Record”(参见前注70),paras 204—209。

75. 意思说加拿大使用的模型和标准必须是具体且可靠的,从而使得它有可能……锁定可能从事恐怖活动或者其他严重跨国犯罪行为的个人。Cf. CJEU‘Passenger Name Record’(参见前注70),para 172。

76. “将数据传递给加拿大并没有考虑到是否有客观的证据证明乘客将会对加拿大的公共安全造成威胁这一推断。”(para 186)“这个处理过程意在识别出公共安全的风险。在这个阶段,不为主管部门所知的人就会隐然出现,而与危险相关的人员将会接受进一步的检查。在这个层面上,在乘客到达加拿大之前,数据的自动化处理便利并加速了安全检查,尤其是在口岸区域。”[para 187]根据第191段以下的内容,“那将足以在个人数据保存和目标实现之间建立一种联系”。See CJEU“Passenger Name Record”(参见前注70). Cf. Rademacher(2017), pp.412—413。

77. 特别真实的是,欧盟法院在“乘客姓名登记”判决中的推理(参见前注70)是建立在与航空管制、边境管理有关的国际公法基础上的(Cf. para 188)。然而,国际公法只是法院接受协定的一个理由。Cf. para 187.

78. 鉴于对信息自决基本权利的侵犯,在任何情况下都需要特定的法律依据。See Article 52(1)CFR.

79. See also CJEU “Ministerio Fiscal”(参见前注68),paras 54, 56—57。

80. Ferguson(2017), p.98; ditto Wittmann(2014), pp.368—369.“不像逮捕或者窃听,这个决定仅仅是将警察的注意力更多地放在某个特定人身上,而不是其他。这也很难被认为是受第四修正案调整的。”See also Joh(2016), p.17.

81. “在一个政府真正有限的权力中,除非有法律上的明确授权,警察并不具备侵入隐私或者防护的监控权力。这并不是第四修正案下当前的真实情况。”参见Ferguson(2014), p.1333.但是Ferguson(2017), p.116表明社交媒体的监控以及相应的数据存储也会侵犯第一修正案。

82. Katz v. United States, 389 U.S. 347(1967), p.361(Harlan, J., concurring).

83. 公共的界定范围非常广泛,包含了所有第三方在场的交流场景。Cf. Smith v. Maryland, 442 U.S. 735(1979).关于法院一个更为深入的分析参见Wittmann(2014), pp.146—328.有争议的是,Carpenter v. United States案也对第三方的概念提出了挑战(参见前注99)。

84. 令人惊讶的是,针对警方在搜查、拘留或者逮捕之前对个人作出决定的现象,罕有讨论。相反,当前为解决关于警察技术的问题集中在是否要根据第四修正案中的搜查要求需要申请搜查令和满足合理理由要求。Cf. Joh(2016), p.18.

85. Rich(2016), pp.895—901; Ferguson(2015), pp.388—409; Joh(2014), pp.55—65.也可以参见《第四修正案之外》(Beyond the Fourth Amendment)。See Joh(2014), pp.66—67.

86. Cf. Kyllo v. United States, 533 U.S. 27(2001), pp.34—35.

87. 那并不意味着立法者可以介入并执行对监控更为严格的要求。这些监控措施不足以构成第四修正案下的干涉。然而,根据Ferguson(2017), p.101的观点,这些立法上的限制或者澄清,至今为止,还是缺失的。在欧盟引发了极大关注的新《加州消费者隐私法案》(California Consumer Privacy Act, CCPA)限制了它适用于私主体数据处理过程的范围。Cf. Cal. Civ. Code § 1798.140(c).

88. 区分出在第四修正案中可供讨论的七类价值。Cf. Ferguson(2014), p.1305.

89. Ferguson(2014), p.1307.

90. United Stotes v. Jones, 565 U.S. 400(2012), p.404.

91. Cf. Ferguson(2014), p.1308.

92. 一个类似的适用于监控技术的历史性措施是“不利用侵入手段在当事人事先不知道的情况下发现家中的细节”。Kyllo v. United States(参见前注86),p.40.相应的监控技术并不构成第四修正案意义上的搜查。See also Florida v. Jardines, 133 S.Ct. 1409(2013), p.1419(Kagan, J., concurring).

93. United States v. Jones(参见前注90),p.430(Alito, J., concurring).

94. 同上注。

95. 同上注。

96. 同上注,第429—430页(Alito, J., concurring)。

97. 同上注,第416—417页(Sotomayor, J., concurring). See also paras. 18 and 42。关于令人发寒的影响的讨论并不出现在最高法院的判决中,反而在第一修正案中屡屡被提及。Cf. Staben(2016), pp.67—68.

98. 因此,指导在第四修正案的传统解释中,构成了面向公众的公开(参见前注83、99)。

99. Carpenter一案涉及的是抢劫罪。有意思的是,阿里托大法官并不同意。他认为多数意见是一种“颠覆性的”,因为它忘记了之前确立的判例法,即“仅仅要求第三方审查它们自己的记录和生成特定的档案”并不适用第四修正案。Carpenter v. United States, 585 U.S.(2018), p.12(Roberts, C. J., for the majority.

100. 同上注,第18页(Roberts, C. J., for the majority)。

101. 很显然,所要求的清晰度和准确度取决于监控措施介入的程度,较低程度介入的可行性以及犯罪或者威胁的严重程度。

102. 这里有一个错误的结论,即机器学习的适用将不会得出一个个性化的预测。参见Ferguson(2017),p.127:“一般性嫌疑”。根据定义,只要涉及个体的相关数据被作为预测系统的输入数据,那么结果就是个性化的。真正的问题在于,是否足够个性化,例如,接受质疑的模式是否仅仅依赖于一两个指标(如出生地、受教育程度等)(参见本书赫姆斯特鲁维尔文章的第10段,还有第30—34段的过度个性化的逆转风险(过度匹配,overfitting))。我们应当铭记的是,所有的违法嫌疑,无论是被人还是被机器识别的,都是以行为识别为起点和依赖的,例如将先前学习的信息运用到新的情形。详情参见Rademacher(2017), pp.373—377, 381—383和Harcourt and Meares(2011), p.813。“事实上,大多数涉嫌个体仅仅是因为他(她)们展现出的(或者归属的)群体性特征——年龄和性别就是例子——而不是特别的个性特征。典型的就是,人们仅仅因为年轻,或者是男性,或者是从警察处跑开,或者是口袋有个隆起,就会被警察注意到。”

103. 为了更多地评估预测算法的方法和清晰度与准确性之间的差别,参见 Degeling and Berendt(2017),尤其是3.2部分。

104. 无论是人类或者技术的,所有性质的怀疑本质上都是一个盖然性。根据定义,依靠“嫌疑”接受任何在不完整信息下作出的行动cf. Rich(2016), p.898; Rademacher(2017), p.383同时,结果上应当开放事后的修正。

105. 有意思的是,美国学者们建议将智慧执法与缉毒犬相比较,而不是人[参见Rich(2016), pp.913—921]。在涉及缉毒犬的法律中[尤其是Rodriguez v. United States, 575 U.S.(2015), pp.5—6(Ginsburg,J., for the majority)],我们发现如果与路边的盘查不相关的话(这个需要满足第四修正案下的“合理理由”标准),警察可以实施调查(如警犬的闻嗅),但是仅在该调查不会延长停止时间的情况下。在Florida v. Jardines案第93个注释中,最高法院以5比4的投票作出一个判决,认为当警犬在围绕一个人房屋的财产(即前院,某些特定案件中是前廊)进行闻嗅时,如果这个财产已经被基于调查的目的而进入,那么警犬的嗅觉识别等同于一个宪法第四修正案意义上的搜查。在另一方面,斯卡利亚大法官再次强调:“当回家时候‘经过公共通道时’,执法人员不需要‘蒙住双眼’。”(在第1423页)

106. Ferguson(2017),p.198文中认为“这是我们如何测试的”可能是一个比“这是它如何运作的”令人更舒服和更具备启发意义的回答。关于最新的测试机理的详细分析参见Kroll et al.(2017), pp.643—656。

107. Cf. Rich(2016), pp.913—921.以智慧执法(“自动嫌疑发现”)与缉毒犬的可比较性为前提。

108. 赫姆斯特鲁维尔正确地提到了对于假阳性或者假阴性的接受程度取决于AI技术是用来信息收集的目的还是为了防护或者惩罚的目的。参见本书赫姆斯特鲁维尔文章的第52—55段。

109. 关于立法者、政策制定者、计算机科学家之间形成跨学科合作的内容,参见Kroll et al.(2017), pp.695—705。

110. 同上注,第657—658页。

111. 涉及欧盟《通用数据保护条例》第13条,参见Bieker et al.(2018), p.610。

112. 同上参见本书赫姆斯特鲁维尔文章的第3段和第45—47段,以及Kroll et al.(2017), p.657文中的“一个单纯的解决问题的方式”;Ferguson(2017), pp.137, 138“问题……不是算法的透明……而是如何将这个项目如何介绍给公众和将会根据这些信息怎么做的透明性。”也可参见本书威施迈耶的文章,特别是第24段以下以及第30段。

113. Cf. Joh(2014), pp.50—55.

114. Cf. Rich(2016), p.919.

115. Hildebrandt(2016), pp.3, 21—22.另可参见Marks et al.(2017), pp.714—715的“自动犯罪裁判”。

116. 关于(重新)设置人类机构的需求请参见本书威施迈耶文章的第24段以下。

117. See also Kroll et al.(2017), pp.657—660, Ferguson(2017), pp.137—138.关于问责问题最近讨论的回顾参见Andrews(2019)文。这并不是说特定的政府官员不应当有权去审查源数据、训练和测试数据等环境因素,特别是司法审查程序要求某种附加的透明度要求。具体的细节可以参见本书威施迈耶的文章,特别是第47段。

118. 在人们重新评估视频数据过程中保护个人隐私的技术参见Birnstill et al.(2015)。

119. 同上。然而,Rich(2016), p.920文中质疑这种系统的公开是否具有可行性,或者说仅仅是“理论上可行”。也可参见本书威施迈耶的文章,特别是第27段。相应的技术被叫做“可解释的人工智能”(explainable Al, XAI)。Cf. Waltl and Vogl(2018)and Samek et al.(2017).

120. 最终还包括“违反直觉”的见解参见Ferguson(2017), pp.117, 136—140。在欧盟法下一个批判性的报告参见Rademacher(2017), pp.388—391。

121. 很重要的是,这一点并不相关,即软件本身仅限于检测相关性并且不能“理解”临时链接。对于Ferguson(2017), p.119而言,关联性(correlation)和因果关系(causation)之间的差别是大数据警务背后一个“基本问题”。本章并不同意:对于数据学习内在机理认识的缺失仅仅构成反对使用智慧执法技术的一个事由,如果我们要求相应的软件是可问责的,例如要求它自我解释和最终面对纪律或者选举的惩罚。相反,我们需要的是设立一个法律框架以保有人的可问责性。所以,软件自身并不需要“理解”它搜集的信息之间的内在联系。另外,Eidenmüller(2017), p.13。从私法的视角提到“将机器人当作人来看将会导致人的非人格化,所以我们应当避免采取此类政策”。

122. 类似于“违法嫌疑自动发现算法”,使用(美国)的缉毒犬和适当性的详细讨论参见Rich(2016), pp.911—924。同时还可以参见前注105。

123. Ferguson(2017), p.133.

124. 参见本书蒂斯比克文章的第5段及以下。

125. 参见本书布赫霍尔茨文章的第30段;Hacker(2018), pp.1143—1144。但是也可以参见Brantingham et al.(2018), p.1:“我们发现在控制和处理情况中,种族之间没有明显的差异……”关于英国刑事司法审判中类似软件系统的详细评论参见Scantamburlo et al.(2019),特别是第58页以下。

126. 参见本书赫姆斯特鲁维尔文章的第3—4段。同时Bennet Capers(2017), pp.1242, 1271中提道:“我是一个黑人……我对不仅能够揭示我们警务运作现状,而且能够反映我们黑种人或者说棕色人种生活现状的技术很感兴趣。”

127. 这个例子来自Bennet Capers(2017), p.1242。他用这个方程式描述了他对美国人类执法现状的看法。

128. Ditto Hacker(2018), pp.1146—1150.

129. Cf. Kroll et al,(2017), p.685;参见本书蒂斯比克文章的第13段;根据欧盟法律,有关敏感预测变量的最新目录,参见《欧盟基本权利宪章》第21条。

130. Ferguson(2017), pp.122—124; Kroll(2017), p.685;参见本书蒂斯比克文章的第11—12段。

131. Kroll et al.(2017), pp.682—692整理了最近的一些研究。有关揭示歧视性算法的法律工具的说明,请参见Hacker(2018), pp.1170—1183。

132. Krollet al.(2017), p.674.程序公正,pp.690—692:非歧视。同时,也可以参见本书赫姆斯特鲁维尔文章的第41—43段。

133. 所以这个方式被贴上“通过意识实现公平”的标签。参见Dwork et al.(2011)文。同时也可参见“走向知识创造的范式”(参见本书蒂斯比克文章的第31段以下)。

134. Ferguson(2017), p.137.

135. See, e.g., Bennet Capers(2017), pp.1268—1283, 1285.相关论述中强烈呼吁用(希望的)具有较少偏见的机器执法取代人类执法。

136. Cf. Tyler(1990), pp.3—4; Hoffmann-Riem(2017), pp.33—34.

137. See, e.g., Cheng(2006), pp.659 et seq.

138. 参见前注4和Rich(2013), pp.802—804。关于最近的不可能结构或者“被植入的法”的反思分别参见 Rademacher(2019)和Becker(2019)。

139. 呼吁对金融市场进行预防性监管,参见本书斯凯梅尔文章的第46段。

140. Cf. Bennet-Capers(2017), pp.1282—1283, 1285—1291.

141. Orwell(1949).

142. Cf. Oganesian and Heermann(2018).

143. 关于“监控的危险”更为翔实的揭示参见Richards(2013), esp.pp.1950—1958, 1962—1964。Timan et al.(2018), pp.744—748提到以“监控研究”为主题其他学科与法律推理结合的综合性研究,非常正确地要求更多地法律研究。这些研究可能认为监控有好有坏,或者是好坏看情况而定。

144. Solove(2007), pp.758, 765; Richards(2013), p.1961.从德国的角度全面分析的文章参见Staben(2016)和Oermann and Staben(2013)。

145. Joh(2019), p.178中提道:“当城市变得更加‘智慧’,他们将会很快在城市设施中加入执法元素。”

146. Timan et al.(2018), p.738文中提到的“政府和公司监控设施的不断结合”和“调查公民的监控措施不断增加”。

147. 这种情绪应当获得某种法律的甚至是宪法上的承认。原因是我们生活在本章称之为“不完美的民主”里。也就是说,在这么一个社会中,我们很难平衡两方面的关系,即一方面是大多数人的规则;另外一方面是个人的自我决定和对抗国家干预的权利(用过赋予较多的基本权利和政治权利以保护少数人)。但是如果一旦失败,那么在未来我们还会出于种种实践中的理由无法提供此类平衡。所以即使民主立法也不能保证每一部立法每一段立法都是完美的。这可能就是他们无法要求这些立法获得完美遵守的很好理由吧。Cf. Rich(2013), p.810.

148. Petroski(2018).

149. Cheng(2006), pp.682—688文中关于尊重这一愿望立法的重要说明。

150. Hartzog et al.(2015), esp.pp.1778—1792中提倡有意识的低效率以防止“完美执法”。

151. Mulligan(2008), p.3.

152. Timan et al.(2018), p.747中引用了J Cohen的“玩乐空间的重要性”的说法。

153. United States v. Jones(参见前注90), p.429。关于德国的讨论参见前注55。

154. See also Rich(2013), pp.804—828; Hartzog et al.(2015), pp.1786—1793; Hoffmann-Riem(2017), p.34; Rademacher(2017), pp.398, 403—410.

本章参考文献

1. Algorithm Watch, BertelsmannStiftung(2019)Automating Society. Taking stock of automated decision-making in the EU. www.bertelsmaim-stiftung.de/de/publikationen/publikation/did/automating-society. Accessed 21 Feb 2019.

2. Andrews L(2019)Algorithms, regulation, and governance readiness. In: Yeung K, Lodge M(eds)Algorithmic regulation. Oxford University Press, Oxford, pp.203—223.

3. Associated Press(2018)Israel claims 200 attacks predicted, prevented with data tech. CBS News. www.cbsnews.com/news/israel-data-algorithms-predict-terrorism-palestinians-privacy-civil-lib erties. Accessed 29 Nov 2018.

4. Bachmeier L(2018)Countering terrorism: suspects without suspicion and(pre-)suspects under surveillance. In: Sieber U, Mitsilegas V, Mylonopoulos C, Billis E, Knust N(eds)Alternative systems of crime control. Duncker&Humblodt, Berlin, pp.171—191.

5. Barret B(2016)New surveillance system may let cops use all of the cameras. Wired, www.wired.com/2016/05/new-surveillance-system-let-cops-use-cameras. Accessed 16 Nov 2018.

6. Becker M(2019)Von der Freiheit, rechtswidrig handeln zu können. Zeitschrift für Urheber- und Medienrecht 64:636—648.

7. Bieker F, Bremert B, Hansen M(2018)Verantwortlichkeit und Einsatz von Algorithmen beiöffentlichen Stellen. Datenschutz und Datensicherheit:608—612.

8. Bier W, Spiecker gen Döhmann I(2012)Intelligente Videoüberwachungstechnik: Schreckensszenario oder Gewinn für Datenschutz. Computer und Recht:610—618.

9. Big Brother Watch(2018)Face off. The lawless growth of facial recognition in UK policing. https://www.bigbrotherwatch.org.uk/wp-content/uploads/2018/05/Face-Off-final-digital-l.pdf. Accessed 29 Nov 2018.

10. Bimstill P, Ren D, Beyerer J(2015)A user study on anonymization techniques for smart video surveillance. IEEE. https:Z/ieeexplore.ieee.org/stamp/stamp.jsp?tp=&amumber=7301805. Accessed 29 Nov 2018.

11. Böckenförde T(2008)Auf dem Weg zur elektronischen Privätsphare. JuristenZeitung 63:925—939.

12. Bouachir W, Gouiaa R, Li B, Noumeir R(2018)Intelligent video surveillance for real-time detection of suicide attempts. Pattern Recogn Lett 110:1—7.

13. Brantingham PJ, Valasik M, Mohler GO(2018)Does predictive policing lead to biased arrests? Results from a randomized controlled trial. Stat Public Policy 5:1—6.

14. Brühl J(2018)Wo die Polizei alles sieht. Siiddeutsche Zeitung. www.sueddeutsche.de/digital/palantir-in-deutschland-wo-die-polizei-alles-sieht-1.4173809. Accessed 26 Nov 2018.

15. Bundesministerium des Innem(2016)“Polizei 2020”. www.bmi.bund.de/DE/themen/sicherheit/nationale-und-intemationale-zusanimenarbeit/polizei-2020/polizei-2020-node.html. Accessed 7 Dec 2018.

16. Bundesministerium des Innem(2018)Pressemitteilung. Projekt zur Gesichtserkennung erfolgreich. www.bmi.bund.de/SharedDocs/pressemitteilungen/DE/2018/10/gesichtserkennung-suedkreuz. html. Accessed 29 Nov 2018.

17. Bundespolizeipräsidium(2018)Teilprojekt 1 “Biometrische Gesichtserkennung”. Abschlussbericht.www.bundespolizei.de/W eb/DE/04Aktuelles/01 Meldungen/2018/10/18101 l_abschlussbericht_gesichtserkennung_down.pdf; jsessionid=2A4205E1606AC61

7C8006E65DEDD7D22.2_cid324? blob=publicationFile& v=l. Accessed 29 Nov 2018.

18. Bundestag(2018)Antwort der Bundesregiegung auf die Kleine Anfrage “Umsetzung der EU-Richflinie zur Vorratsdatenspeicherung von Fluggastdaten”. BT-Drucksache 19/4755.

19. Burkert H(2012)Balancing informational power by information power, or rereading Montesquieu in the internet age. In: Brousseau E, Marzouki M, Méadel C(eds)Governance, regulations and powers on the internet. CUP, Cambridge, pp.93—111.

20. Candamo J, Shreve M, Goldgof D, Sapper D, Kasturi R(2010)Understanding transit scenes: a survey on human behavior recognition algorithms. IEEE Trans Intell Transp Syst 11:206—224 Capers IB(2017)Race, policing, and technology. N C Law Rev 95:1241—1292.

21. Caplan J, Kennedy L(2016)Risk terrain modeling. University of California Press, Oakland.

22. Chaos Computer Club(2018)Biometrische Videoiiberwachung: Der Siidkreuz-Versuch war kein Erfolg. www.ccc.de/de/updates/2018/debakel-am-suedkreuz. Accessed 26 Nov 2018.

23. Cheng E(2006)Structural laws and the puzzle of regulating behavior. Northwest Univ School Law 100:655—718.

24. Davenport T(2016)How Big Data is helping the NYPD solve crime faster. Fortune, fortune.com/2016/07/17/big-data-nypd-situational-awareness. Accessed 29 Nov 2018.

25. Degeling M, Berendt B(2017)What is wrong about Robocops as consultants? A technologycentric critique of predictive policing. Al & Soc 33:347—356.

26. Demetis D(2018)Fighting money laundering with technology: a case study of Bank X in the UK. Decis Support Syst 105:96—107.

27. Dimitrova D(2018)Data protection within police and judicial cooperation. In: Hofmann HCH, Rowe GC, Turk AH(eds)Specialized administrative law of the European Union. Oxford University Press, Oxford, pp.204—233.

28. Dwork C, Hardt M, Pitassi T, Reingold O, Zemel R(2011)Fairness through awareness. arXiv.org/pdfZ1104.3913.pdf. Accessed 29 Nov 2017.

29. Eidenmüller H(2017)The rise of robots and the law of humans. Oxford Legal Studies Paper. Ssm. com/abstract=2941001. Accessed 29 Nov 2018.

30. Eubanks V(2018)A child abuse prediction model fails poor families. Wired, www.wired.com/story/excerpt-from-automating-inequality. Accessed 29 Nov 2018.

31. Ferguson AG(2014)Fourth amendment security in public. William Mary Law Rev 55:1283—1364.

32. Ferguson AG(2015)Big data and predictive reasonable suspicion. Univ Pa Law Rev 163:327110.

33. Ferguson AG(2017)The rise of big data policing. New York University Press, New York.

34. Hacker P(2018)Teaching fairness to artificial intelligence: existing and novel strategies against algorithmic discrimination under EU law. Common Mark Law Rev 55:1143—1186.

35. Harcourt B, Meares T(2011)Randomization and the fourth amendment. U Chi L Rev 78:809—877.

36. Hartzog W, Conti G, Nelson J, Shay LA(2015)Inefficiently automated law enforcement. Mich State Law Rev:1763—1796.

37. Heinemann M(2015)Grundrechtlicher Schutz informationstechnischer Systeme. Schriften zum Öffentlichen Recht, vol 1304. Duncker & Humblot, Berlin.

38. Henderson SE(2016)Fourth amendment time machines(and what they might say about police body cameras). J Constit Law 18:933—973.

39. Hildebrandt M(2016)Law as information in the era of data-driven agency. Mod Law Rev 79:1—30.

40. Hoffmann-Riem W(2008)Der grundrechtliche Schutz der Vertraulichkeit und Integritat eigengenutzer informationstechnischer Systeme. JuristenZeitung 63:1009—1022.

41. Hoffmann-Riem W(2017)Verhaltenssteuerung durch Algorithmen-Eine Herausforderung fiir das Recht. Archiv des offentlichen Rechts 142:1—42.

42. Joh E(2014)Policing by numbers: big data and the fourth amendment. Wash Law Rev 89:35—68.

43. Joh E(2016)The new surveillance discretion: automated suspicion, big data, and policing. Harv Law Policy Rev 0:15M2.

44. Joh E(2019)Policing the smart city. International Journal of Law in Context 15:177—182.

45. Kroll JA, Huey J, Barocas S, Felten EW, Reidenberg JR, Robinson DG, Yu H(2017)Accountable algorithms. Univ Pa Law Rev 165:633—705.

46. Lismont J, Cardinaels E, Bruynseels L, De Goote S, Baesens B, Lemahieu W, Vanthienen J(2018)Predicting tax avoidance by means of social network analytics. Decis Support Syst 108:13—24.

47. Marks A, Bowling B, Keenan C(2017)Automatic justice? In: Brownsword R, Scotford E, Yeung K(eds)The Oxford handbook of law, regulation, and technology. Oxford University Press, Oxford, pp.705—730.

48. Marsch N(2012)Die objektive Funktion der Verfassungsbeschwerde in der Rechtsprechung des Bundesverfassungsgerichts. Archiv desöffentlichen Rechts 137:592—624.

49. Marsch N(2018)Das europaische Datenschutzgrundrecht. Mohr Siebeck, Tubingen.

50. May J(2018)Drug enforcement agency turns to A.I. to help sniff out doping athletes. Digital trends. https://www.digitaltrends.com/outdoors/wada-artificial-intelHgence-doping-athletes. Accessed 23 Oct 2019.

51. McKay S(2015)Covert policing. Oxford University Press, Oxford.

52. Mulligan CM(2008)Perfect enforcement of law: when to limit and when to use technology. Richmond J Law Technol 14:H9.

53. Murphy E(2007)The new forensics: criminal justice, false certainty, and the second generation of scientific evidence. Calif Law Rev 95:721—797.

54. Oermann M, Staben J(2013)Mittelbare Grundrechtseingriffe durch Abschreckung? DER STAAT 52:630—661.

55. Oganesian C, Heermann Th(2018)China: Der durchleuchtete Mensch—Das chinesische Socia-Credit-System. ZD-Aktuell:06124.

56. Oldiges M(1987)Einheit der Verwaltung als Rechtsproblem. Neue Zeitschrift fiir Verwaltungsrecht 1987:737—744.

57. Orwell G(1949)Nineteen eighty-four. Seeker & Warburg, London.

58. Pelzer R(2018)Policing terrorism using data from social media. Eur J Secur Res 3:163—179.

59. Petroski W(2018)Iowa Senate OKs ban on traffic enforcement cameras as foes predict more traffic deaths. Des Moines Register, https://eu.desmoinesregister.com/story/news/politics/2018/02/27/traffic-enfbrcementcameras-banned-under-bill-passed-iowa-senate/357336002. Accessed 23 Oct 2019.

60. Poscher R(2017)The right to data protection. In: Miller R(ed)Privacy and power. Cambridge University Press, Cambridge, pp.129—141.

61. Rademacher T(2017)Predictive Policing im deutschen Polizeirecht. Archiv des offentlichen Rechts 142:366—416.

62. Rademacher T(2019)Wenn neue Technologien altes Recht durchsetzen: Durfen wir es unmoglich machen, rechtswidrig zu handeln? JuristenZeitxing 74:702—710.

63. Reidenberg J(1998)Lex Informatica: the formulation of information poHcy rules through technology. Tex Law Rev 76:553—593.

64. Rich M(2013)Should we make crime impossible? Harv J Law Public Policy 36:795—848.

65. Rich M(2016)Machine learning, automated suspicion algorithms, and the fourth amendment. Univ Pa Law Rev 164:871—929.

66. Richards NM(2013)The dangers of surveillance. Harv Law Rev 126:1934—1965.

67. Rosenthal D(2011)Assessing digital preemption(and the future of law enforcement?). New Crim Law Rev 14:576—610.

68. RWI Essen(2018)“Erfolgreiche” Gesichtserkennung mit hunderttausend Fehlalarmen. http://www.rwi-essen.de/unstatistik/84. Accessed 29 Nov 2018.

69. Samek W, Wiegand T, Muller K-R(2017)Explainable artificial intelligence: understanding, visualizing and interpreting deep learning models. arXiv:1708.08296vl. Accessed 25 Oct 2019.

70. Saracco R(2017)An artificial intelligence “nose” to sniff diseases: EIT Digital. https://www. eitdigital.eu/newsroonVblog/article/an-artificial-mtelligence-nose-to-snif-diseases. Accessed 29 Nov 2018.

71. Saunders J, Hunt P, Hollywood JS(2016)Predictions put into practice: a quasi-experimental evaluation of Chicago's predictive policing pilot. J Exp Criminol 12:347—371.

72. Scantamburlo T, Charlesworth A, Cristianini N(2019)Machine decisions and human consequences. In: Yeung K, Lodge M(eds)Algorithmic regulation. Oxford University Press, Oxford, pp.49—81.

73. Schlossberg T(2015)New York police begin using ShotSpotter system to detect gunshots. The New York Times, https://www.nytimes.com/2015/03/17/nyregion/shotspotter-detection-sys tem-pinpoints-gunshot-locations-and-sends-data-to-the-police.html. Accessed 29 Nov 2018.

74. Seidensticker K, Bode F, Stoffel F(2018)Predictive policing in Germany, http://nbn-resolving.de/um:nbn:de:bsz:352-2-14sbvoxlik0z06. Accessed 29 Nov 2018.

75. Singeinstein T(2018)Predictive Policing: Algorithmenbasierte Straftatenprognosen zur vorausschauenden Kriminalintervention. Neue Zeitschrift fiir Strafrecht:1—9.

76. Solove DJ(2007)Tve got nothing to hide' and other misunderstandings of privacy. San Diego Law Rev 44:745—772.

77. Spice B(2015)Carnegie Mellon developing online tool to detect and identify sex traffickers, www. cmu.edu/news/stories/archives/2015/january/detecting-sex-traffickers.html. Accessed 24 Oct 2019.

78. Staben J(2016)Der Abschreckungseffekt auf die Grundrechtsausiibung. Internet und Gesellschaft, vol 6. Mohr Siebeck, Tubingen.

79. Thomas S, Gupta S, Subramanian V(2017)Smart surveillance based on video summarization. IEEE, https://ieeexplore.ieee.org/document/8070003. Accessed 29 Nov 2018.

80. Throckmorton CS, Mayew WJ, Venkatachalam M, Collins LM(2015)Financial fraud detection using vocal, linguistic and financial cues. Decis Support Syst 74:78—87.

81. Timan T, Galic M, Koops B-J(2018)Surveillance theory and its implications for law. In: Brownsword R, Scotford E, Yeung K(eds)The Oxford handbook of law, regulation, and technology. Oxford University Press, Oxford, pp.731—753.

82. Trute HH(2009)Grenzen des präventionsorientierten Polizeirechts in der Rechtsprechung des Bundesverfassungsgerichts. Die Verwaltung 42:85—104.

83. Tyler TR(1990)Why people obey the law. Yale University Press, New Haven and London.

84. Waltl B, Vogl R(2018)Increasing transparency in algorithmic decision-making with explainable AL Datenschutz und Datensicherheit:613—617.

85. Wendt K(2018)Zunehmender Einsatz intelligenter VideoUberwachung. ZD-Aktuell:06122.

86. Wittmann P(2014)Der Schutz der Privatsphare vor staatlichen Uberwachungsma Bnahmen durch die US-amerikanische Bundesverfassung. Nomos, Baden-Baden.

87. Wysk P(2018)Tausche Freiheit gegen Sicherheit? Die polizeiliche Videoüberwachung im Visier des Datenschutzrechts. Verwaltungsarchiv 109:141—162.

88. Zetter K(2012)Public buses across country quietly adding microphones to record passenger conversations. Wired, www.wired.com/2012/12/public-bus-audio-surveillance. Accessed 26 Nov 2018.


(1) 作者为汉诺威大学法学院助理教授。

(2) 译者为中共上海市委党校讲师。

后台-插件-广告管理-内容页尾部广告(手机)
标签:

评论留言

我要留言

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。