现代技术发展所带来的社会问题越来越突显,如何对技术进行有效控制和反思愈发成为各个领域所关注的重要问题{1}。在互联网不断发展的基础上,多功能互动、人工智能、虚拟世界、注意力经济、在线视频等各方面的科学技能不断改进{2}。特别是近半个世纪以来人工智能飞速发展,带来一系列的法律问题。在人工智能逐渐完善的过程中,其所涉及的法律问题也开始由民事领域、知识产权领域向刑事领域转向。2017年9月22日,绍兴市公安机关破获全国首例利用人工智能技术实施的“特大侵犯公民个人信息案”,即“全国首例利用AI犯罪案”,利用人工智能犯罪活动已开始在我国出现。但是人工智能犯罪究竟带来何种新的刑法命题与难题?现有刑法理论又该秉持何种态度?目前国内尚缺乏关于这一问题的专门研究,一些基本问题亟需厘清,进而契合相关犯罪的治理需要。
一、风险语境下的人工智能
对社会风险的权衡与回应始终是刑事立法所需关切的理论与现实命题,人工智能技术的发展延伸了社会风险的图景,也为刑法带来新的难题。
1.人工智能的发展与风险
人工智能(Artificial Intelligence,简称AI)这一概念的出现一般认为可以追溯至1956年。此后,随着人工智能概念的不断发展,学界也在努力对其做出精确的界定。较具代表性的是从类人、理性、思维、行为这4个方面给出的定义。有学者进而认为可以从“能力”和“学科”两个方面给出人工智能的解释:从能力的角度看,人工智能是指用人工的方法在机器(计算机)上实现的智能;从学科的角度看,人工智能是一门研究如何构造智能机器或智能系统,使它能够模拟、延伸和扩展人类智能的学科{3}。根据诸多学者对于人工智能的界定,人工智能是人为创造的智慧,即在计算机或其他设备上模拟人类思维的软件系统{4}。笔者认为,以上界定大都肯定人工智能这一核心内涵:即人工智能是基于人类的设定或要求,通过计算机信息系统实施一定智能行动的实体或程序。
随着人工智能技术的发展和完善,其智能水平和社会意义也愈发彰显。美国国家科学技术委员会、美国网络和信息技术研发小组委员会2016年10月公布的《美国国家人工智能研究和发展战略计划》指出, AI系统在专业任务上的表现经常胜于人类。AI首次超越人类表现的主要里程碑包括:国际象棋(1997年)、Trivia(2011年)、Atari游戏(2013年)、图像识别(2015年)、语音识别(2015年)和Go(即AlphaGo围棋,2016年)。人工智能的社会应用也愈发广泛,如在医疗领域、人工智能软件特别是包含机器学习的软件、其提供了无需基于规则编程的数据学习的能力、可以简化将微量元素从初始化到市场化的过程{5}。目前其应用领域包括博弈、自动推理与定理证明、专家系统、自然语言理解、模拟人的性能、规划与机器人、 AI语言和环境、机器学习、神经网络与遗传算法、AI与哲学等{6}。我国也正在逐步推广和应用人工智能,其普及和发展已经在相当程度上改变着社会的发展和人们的认知。
但是,人工智能的发展也伴随着莫大的风险。如美国自动驾驶汽车特斯拉频频出事故:2016年5月间,在佛罗里达的一条高速公路上,一辆开启了Autopilot模式的特斯拉发生了车祸,致驾驶员死亡;2016年6月至8月间,特斯拉的自动驾驶汽车也屡屡发生车祸造成车主与其他人员伤亡。2016年9月,央视《法治在线》栏目曝光了特斯拉自动驾驶在中国出现首例死亡事故,特斯拉处于“定速”的状态,并未能识别躲闪而撞上前车。而2015年7月英国《***》报道的大众机器人“杀人事件”中,大众承包商的一名工作人员不幸身亡,事发时其正与同事一起安装机器人,但机器人却突然抓住他的胸部,然后把他重重地压向一块金属板,最终导致这名工作人员因伤重不治身亡。新技术经常引起公众的焦虑,但人工智能进步带来的影响尤为显著{7}。就人工智能的风险,2015年霍金等签发***,警告称在进行人工智能研究的同时必须相应地采取防范措施,避免人工智能给人类社会造成潜在伤害。***指出:在短期内,人工智能技术将让数百万人失业。在长期内,人工智能可能潜在地让机器的智商远远超过人类,做出违背编程的举动。而在社会层面,如何从法律特别是刑法角度思考和回应上述风险也正是需要思考的问题。
2.人工智能的刑法命题
风险社会的发展变迁是现代刑法所必须面对的社会现实。自德国学者乌尔里希•贝克1986年出版《风险社会》一书以来,“风险”成为理解和诠释社会变迁的一个关键性概念,“风险社会”随之也成为解释世界的全新范式{8}。在这一过程中,风险社会的到来无疑对于刑法理论与实践产生了巨大的影响。由于风险的增大和嬗变,风险社会中公共管理的基本方略发生了重大变化,根除风险几乎已经不可能,如何防控和分配风险成为社会管理的新命题,刑事立法与实践的导向也因此发生重大变化。据此,有学者提出通过制度规范适应变动的社会是现代社会的法律传统{9}。而在风险社会的逻辑支配下,一种新的刑事法律体系和一种新的刑法理论应当而且必须建立{10}。有学者已将人工智能的风险延展至风险社会的范式下予以研究:认为人工智能的首要问题是安全问题,可以置于风险社会理论的研究范畴之中。进而指出人工智能时代的社会风险具有以下特点:一是风险的共生性;二是风险的时代性;三是风险的全球性{11}。
纵观世界各国,关于人工智能法律及相关规则体系的探索正在进行之中。决策者和学者正在越来越多地关注法律和道德秩序如何适应愈来愈多的机器、机器人和人工智能设备的问题{12}。立法者、法院和监管者都需要思考人工智能是否有任何特殊性以至于需要新的规则,以及如何以合适的方式介入人工智能新问题{13}。即需要回应这样一个全新命题——现有的法律条文是否可以应付人工智能带来的全新和技术复杂的挑战?2016年5月,欧盟议会法律事务委员会发布《就机器人民事法律规则向欧盟委员会提出立法建议的报告草案》(Draft Report with Recommendations to the Commission on Civil Law Rules on Robotics);同年10月,发布研究成果《欧盟机器人民事法律规则》(European Civil Law Rules in Robotics)。2016年12月,电气和电子工程师学会(IEEE)发布《合伦理设计:利用人工智能和自主系统最大化人类福祉的愿景》(IEEE Ethically Aligned Design Document Elevates the Importance of Ethics in the Development of Artificial Intelligence and Autonomous Systems),具体包括8大主题,即一般原则、将价值观嵌入自主智能系统、指导伦理研究和设计的方法论、通用人工智能和超级人工智能的安全与福祉、个人数据与个人访问控制、自主武器系统、经济和人道主义问题以及法律。在(人工智能)自动驾驶领域,2016年3月23日,联合国关于道路交通管理的《维也纳道路交通公约》获得修正;美国道路交通安全管理局(NHTSA)于2013年发布《自动驾驶汽车的基本政策》;德国立法机构2016年对《德国道路交通条例》所规定的“驾驶员在车辆行驶过程中全程保持警惕”“驾驶员的手不能离开方向盘”等条文启动立法修正{14}。但是迄今为止,关于人工智能犯罪的立法还处在探索阶段。
与此同时,人工智能犯罪却已成为必须面对的现实问题。2016年荷兰人Jeffry van der Goot编写了一个Twitter木马程序,借此对当地的时尚秀发出死亡威胁。该木马是一段算法随机混入Jeffry个人Twitter状态。Jeffry坚称他无意威胁任何人,也不能预判木马会做什么。最终他没有受到任何指控,仅是在警方的要求下撤下了该木马。同年,在全球领先的信息安全系列活动Black Hat(黑帽大会)上,美国国防高级研究计划局让自动化系统相互对抗,找到对手代码中的漏洞并利用它们。如果相互对抗的自动化系统指向涉及国家安全等重要领域的计算机信息系统,那么无疑会转化成相关的计算机犯罪。而且,我国也出现了人工智能相关犯罪案件。在“全国首例利用AI犯罪案”中“他们通过运用人工智能机器深度学习技术训练机器,可以让机器如AlphaGo一样自主操作识别,有效识别图片验证码,轻松绕过互联网公司设置的账户登录安全策略,给网络诈骗、‘黑客’攻击等网络黑产提供犯罪工具。”在我国引入和学习人工智能的过程中也不可避免地遇到人工智能犯罪问题,然而对其如何理解和解决目前还缺乏相关的研究。
笔者认为进行人工智能犯罪问题研究的必要性有以下3点:第一,信息网络犯罪本就存在较大的犯罪黑数(即未被查证的犯罪数量),“全国首例利用AI犯罪案”仅是首例被发现的人工智能犯罪案件,很可能不是首例发生的人工智能犯罪案件,而且随着我国人工智能技术和实践的发展,相关案件肯定会愈来愈多,确有必要早关注、早研究、早治理。第二,人工智能犯罪不仅在内容上不同于传统犯罪和一般的信息网络犯罪,而且由于介入了人工智能的判断与行为,在主体等问题认定上为既有刑法理论提出了全新的难题,也必须予以深入研究和探讨。第三,在全球网络化的今天,跨国家、跨法域犯罪十分普遍,人工智能犯罪往往和计算机信息系统和互联网关联,完全可以由他国主体对我国主体予以实施,如果国内刑法理论与立法缺乏必要的准备与实践,那么很可能导致无法对他国主体利用人工智能实施的犯罪(如前述利用自动化系统相互对抗)予以规制,从而无法实现我国《刑法》第八条所规定的保护原则。由此,及时、果断地进行人工智能犯罪研究具有重要的理论和实践价值。
二、人工智能犯罪的理论难题
人工智能犯罪由于人工智能的介入使得其中各个要素之间的关系更为复杂,也对既有的刑法理论产生较大的冲击,特别是对于既有的刑事主体理论提出新的挑战,进而延展至罪过理论和行为理论。
1.主体难题:人工智能的刑法地位
人工智能的主体难题是其刑法命题的根本所在。随着人工智能的发展,其智能的发展程度和独立性也愈发突显。虽然人工智能不免受预设程序的要求与目的影响,但是并不意味着人工智能不具有相当程度的独立性。如“微软聊天机器人Tay散布种族主义、性别歧视和攻击同性恋言论”案件中, Tay是微软2016年在Twitter上推出的聊天机器人,仅上线一天, Tay就开始有一些种族歧视之类的偏激言论,微软不得不紧急关闭了Tay的Twitter账号。Tay的设计原理是从对话交互中进行学习。于是一些网友开始和Tay说一些偏激的言论,刻意引导她模仿。该案也被称为“2016年人工智能的10大失败案例”之一。以我国语境为参照,发表特定言论可以构成犯罪(如散布危害国家安全、恐怖主义、诽谤他人等言论),如果他人诱导人工智能散布相关言论该如何认定?特别是该人工智能是基于自身的“学习”并“发表”以上言论该如何认定和处理?
在传统刑法领域,只有自然人才是刑法规制的主体。行为是生物的基本特征,在某种意义上可以把行为与生命相提并论,没有行为也就没有生命。刑法中的行为,虽然是一种犯罪的行为,应当受到刑罚处罚,但它仍然具有人的一般行为的特征{15}。刑事古典学派与刑事近代学派虽然观点上大相径庭,但是其思考起点并无二致,如龙布罗梭的“犯罪认定型说”(生来犯罪人论)虽否认人具有自由意志,但认为犯罪人比起其他非犯罪人较为退化、原始和野蛮,此现象成为隔代遗传或祖型重现{16}。即便是后来的刑法理论也一直秉持自然人作为刑法的首要甚至唯一规制对象这一前提,如“新社会防卫论”则在尊重人的价值与权利的前提下考虑犯罪人的复归,将人视为社会防卫的目的{17}。而刑法的规制主体如果是机器人,那么这将面临两个基本的问题:其一,刑法要能保证道德主体的权利;其二,机器人应该遵守刑法上的义务{18}。而现阶段人工智能显然不具备自然人的特征,在其世界里只有“0”和“1”构成的信息及其处理,不仅在实施犯罪的前提与依据上存在障碍,在事后的处罚层面也面临无从下手的问题。就此而言,人工智能并不能作为传统体系的适格主体进入刑法视野。但同时,如Tay基于自身“学习”而后发表偏激言论的行为却又在相当程度上脱离于设计者的意思,该如何对其主体性予以看待仍有待思考和研究。
2.罪过难题:人工智能犯罪的主观方面
人工智能的一些独立判断和决定也带来了罪过认定的难题。随着人工智能的发展,机器人逐渐能够从周围环境的刺激中学习,并从自己的行为中获得知识和技能,进而使机器人会越来越难以被它们的用户和设计师预测。国外学者进而指出,我们必须确定机器人的意图,因为其可能影响对机器人惩罚的正确性,所以应首先分析刑法(而不是民法)领域的原则、规则和概念{19}。如在“Jeffry van der Goot案”中,他所编写的木马程序脱离于本人的预判和控制,对于木马“独立”发动的攻击行为的主观方面该如何予以考量?再如BBC地平线系列纪录片《寻找人工智能》(BBC Horizon: The Hunt for AI(2012))所报道的针刺机器人,机器人会根据自己的判断是否会刺伤人的手指,对于其行为的主观方面该如何认定?人工智能所带来的主观方面认定的难题已经成为现实。
这里需要说明“Tay案”与“Jeffry van der Goot案”的区别: Tay案完全基于人工智能的自主学习而发表偏激言论,不存在教唆或就发表偏激言论的相关指令,其行为系人工智能自身学习而后实施,故关注重点在于人工智能的主体性;“Jeffry van der Goot案”和针刺机器人系自然人赋予人工智能就侵害行为一定的决定权,而人工智能自行决定是否实施侵害,因而重点在犯罪的主观方面。
一直以来,只有自然人的主观罪过才进入刑法的视野。现代刑法的主观罪过理论确立了人的主体性以及自由、平等及相关权利,(自然)人成为主体与客体两分的二元世界的主导,(自然)人的独立意志成为权利、义务、责任包括处罚的前提基础。构成这一思想的核心是主张尊重理性的观点。人根据自己的理性,能决定自己的行为{20}。如费尔巴哈的心理强制说认为,人具有追求快乐、逃避痛苦的本能。为了防止犯罪,必须抑制行为人的感性的冲动,即科处作为害恶的刑罚,并使人们预先知道因犯罪而受刑的痛苦大于因犯罪所能得到的快乐,才能抑制其心理上萌生犯罪的意念{21}。其后,费尔巴哈的观点虽经扬弃,但是人的自由意志一直作为刑法罪过理论的重要基石。如有学者指出,意志自由,这里主要是指相对意志自由是罪过心理的基础,而罪过心理是一个犯罪构成的问题。因此,建立在意志自由之上的可归责性应当是犯罪构成的题中之义{22}。黑格尔甚至还将自由意志纳入了法益侵害的层面予以理解:当人侵犯了具体意志的存在,侵犯了人的自由意志,违背了抽象法的时候,人就构成了犯罪{23}。而人工智能的“意志”又和传统刑法理论中的意志自由有所区别,既包括意志主体方面,也包括意志依据方面。人工智能的“意志”并非来源于天赋人权,而是来源于预设的程序和指令,但是其可以根据预设的程序和指令自行决定一定的行动,并可能导致一定的社会后果,二者的前提和讨论范围均不一致。所以前述理论并不能够为人工智能基于独立判断和决定所实施侵害的主观方面认定问题提供有效的阐释依据。
而且这一问题还有必要结合人工智能的不同形态予以研究。人工智能可以分为强人工智能和弱人工智能。强人工智能的观点认为未来能够真正制造出能进行推理和解决问题的智能机器,这种智能机器像人一样有知觉和意识。而弱人工智能的观点认为,智能机器只是看起来像是智能的,它的智能只是表面的、非实质性的,不会像人类一样真正拥有智能和意识{24}。虽然目前这一争论尚无最终的定论,但是两个层面的人工智能已经出现:第一个层面是比较低级的人工智能,即只是在特定领域、特定用途的智能化,人工智能不具备独立的判断与决定能力;第二层面是比较高级的人工智能,人工智能具备一定独立的判断与决定能力。如果说前者的人工智能犯罪主观方面问题可以借助传统的计算机犯罪范式予以阐释,后者的人工智能犯罪主观方面问题则需要进行新的研究和探讨。
3.行为难题:人工智能犯罪的客观方面
人工智能犯罪也为犯罪客观方面的认定提出新的命题。从行为层面,人工智能犯罪可能涉及以下2种类型:第1种类型为人工智能本就应用于社会之中,由于人工智能出现问题或者其他原因产生危害社会的后果。如前文所述的特斯拉自动驾驶导致交通事故等严重后果的情形。在这种情形中人工智能本身用途无害,但是客观上造成了法益侵害,这也是学界已经关注和研究的情形。如有学者对其再予展开,认为机器人致人损害有两种情形:一是侵权人对智能系统进行非法控制而造成的损害。例如,黑客、病毒等人为因素侵入互联网,进而控制人类家庭的儿童看护机器人、助老机器人、护士机器人或其他智能系统,由此导致危及人类的后果。二是智能系统自身的产品瑕疵而造成的损害{11}。第2种类型为人工智能被直接用于犯罪。如在“全国首例利用AI犯罪案”中,其通过人工智能将OCR文本识别技术用于非法获取个人信息,人工智能被直接用于犯罪目的。
在传统意义上,刑法中的行为只能是人的行为。如有学者指出,刑法上的行为,是指行为主体实施的客观上侵犯法益的身体活动。首先,行为是人的身体活动,包括消极活动与积极活动。其次,行为上必须是客观上侵犯法益的行为,这是行为的实质要素{25}。并以此区别犯罪行为与天灾等造成现实侵害的事件,从而明确刑法所规制的行为界限。然而人工智能犯罪中的行为却正是在两者之间:第一,人工智能的“行为”并非自然人所直接发出的,有些甚至并非自然人所直接指令其发出的(如“Jeffry van der Goot案”),人工智能的“行为”在归因于自然人的过程中存在一定障碍。第二,人工智能的“行为”又与自然人有一定的关联,自然人纵然不直接指令人工智能实施一定的“行为”,但是至少会对人工智能的模式和范式做出设定。由此,如何认定自然人行为与人工智能“行为”的性质与界限是刑法理论必须思考的问题。
前述人工智能犯罪可能涉及的两种情形更深化了这一问题:就第1种情形而言,自然人并非积极追求人工智能所造成的危害后果,甚至自然人所设定的人工智能运行规则是有益于社会的,那么对人工智能本身的“行为”可否追责?比如自动驾驶的特斯拉汽车交通肇事,在犯罪层面该如何认定“交通肇事行为”?其与自然人相关行为的关系如何,自然人的行为是否涉及监督过失等问题?就第2种情形而言,人工智能被用于犯罪目的,然而人工智能的“行为”不符合前述传统理论的行为标准,那么是否应当、可以直接归因与归责于自然人?比如“全国首例利用AI犯罪案”中,虽然在侵犯计算机信息系统安全的整体框架下可以直接追究自然人的刑事责任,但如果其中自然人并未直接以行为的方式侵入计算机信息系统,从行为外观上更像是制造侵入计算机信息系统的工具,是被制造的“工具”自行识别验证码和侵入计算机信息系统。如果该案中的情形尚可通过对实行行为扩大解释予以解决,那么“Jeffry van der Goot案”中人工智能基于其判断所实施的“行为”又该如何和相关自然人相区别?这些问题尚需要细致的探讨和研究。
三、人工智能犯罪的刑法理论立场
刑法理论具有时代性,其总需要与特定历史发展阶段的犯罪治理相适应。就人工智能犯罪相关的理论而言也不例外,也需要基于人工智能犯罪发展乃至社会发展的阶段来构建和展开。在现阶段人工智能的发展已经在相当程度上挑战着既有传统理论,但同时人工智能的独立性仍然较为有限,基于此,应在发展和适用传统理论的基础上推动人工智能犯罪主体问题的解决,进而推动罪过、行为等方面问题的解决。
1.当下路径:坚持以自然人为中心
关于人工智能刑法立场的讨论应基于人工智能发展现状以及人工智能犯罪的现状。前文已述人工智能有弱人工智能与强人工智能的划分,目前的人工智能总体而言还属于弱人工智能的阶段。有学者认为,与人类主体的社会和文化属性不同, AI的本质属性是自然性和机械性。AI复制和强化了大脑思维的物质基础和局部功能,它只是执行人类指令而并不考虑社会意义、社会责任和社会后果,也就不能形成主体真正的实践活动和社会属性{26}。虽然这样的论述有否定人工智能未来智能性发展之嫌,但是总体而言现阶段人工智能的发展仍未能全面突破这样的论断。即人工智能的发展目前整体上仍处于弱智能(Weak AI)阶段,对其界定仍然是以机器——物来定义的{27}。
刑法理论和实践的发展要与社会发展的阶段相适应,人工智能犯罪领域也不例外。比如根据(人工智能)现有技术不能提供可能的充分安全保障或可以被要求的安全措施,那么能否普遍适用关于损害的赔偿责任尚不能肯定{28}。而在现阶段,不同于其他产品和发明,人工智能没有人的完全控制,不能完全规划和掌握相关的风险{29}。从主体承担责任的前提来讲,相关实体必须至少有能力认识到自己行为的道德后果,并且能够独立行动{30}。也有学者从其物理形态(机器人)来解读人工智能(体),认为机器人不是具有生命的自然人,也区别于具有自己独立意志并作为自然人集合体的法人,将其作为拟制之人以享有法律主体资格,在法理上尚有商榷之处。模拟和扩展“人类智能”机器人虽具有相当智性,但不具备人之心性和灵性,与具有“人类智慧”的自然人和自然人集合体是不能简单等同的{11}。在主体层面,如果要使人工智能成为独立的责任主体,需要人工智能的高度发展与完整责任主体的转型发展,在现阶段条件尚不够成熟。所以有学者指出,德国关于经济企业可罚性的深入讨论已经非常清楚地表明,目前的刑罚体系并不适合非人类的对象{31}。基于以自然人为中心的刑法立场,对于既有理论予以发展和延伸,才是当下人工智能犯罪的应然路径。具体而言,可从以下方面发展既有理论:
第一,间接故意理论。传统上,我国刑法学界对于间接故意的理解是从认识因素和意志因素两方面入手:在认识因素上,是“明知会发生危害社会的结果”;在意志因素上,则表现为“放任”的心理{32}。间接故意是介于故意与过失之间的罪过形态,在性质上间接故意与直接故意同属于故意的范畴,但是其在认识因素与意志因素层面又不同于直接故意。对于“Jeffry van der Goot案”和“针刺机器人案”,对其中自然人的主观方面可以通过间接故意进行有效评价——行为人对于人工智能是否造成损害结果持放任态度,既不积极追求,但是也不反对,符合间接故意的认识内容和意志内容。而且,这样也不会对既有罪过理论产生过大的冲击。传统意义上,间接故意的行为是自然人实施的,只不过行为人对自己行为的后果持放任态度,而在以上思路中自然人的行为指向的是人工智能,对人工智能行动的后果持放任态度,客观上扩展了间接故意的辐射范围,使之适用于人工智能犯罪。也有学者指出,间接故意犯罪的存在范围在以往的著作中向来是不明确的{33}。本身间接故意作为一种中间形态,也是为了解决介于直接故意与过失之间罪过形态的思路,发展间接故意理论以解决人工智能犯罪的理论难题具有适当性。
第二,监督过失的理论。过失理论经历了旧过失论、新过失论、新新过失论的争论,并加入被允许的危险与信赖原则、监督过失等内容,形成了丰富的理论体系。其中与人工智能犯罪关系最密切的为监督过失理论。监督过失就是有义务监督被监督人在行动时不发生错误的责任,其具体内容为事前的指示、提示、指挥、命令,行动中的监督或事后的检查{34}。监督过失责任并不是让监督者承担被监督者的责任,不是代位责任,而是让监督者承担自己因监督过失而必须承担的责任,监督过失责任与其他责任形式一样,具有直接性{35}。基于此,可以直接对负有监督义务的自然人予以处罚。但是在传统意义上,无论监督者还是被监督者均需为自然人。监督过失还分为广义与狭义之分,广义的监督过失还包括管理过失。所谓管理过失,是指由于管理者没有建立相应的安全管理体制或者建立的安全管理体制不完备,或者对自己管理、支配范围内的危险源管理不善而直接导致危害结果发生的情况,如管理者没有制订健全有效的安全管理制度,没有尽职尽责地配置、维护好各种设备,没有做好统筹的人事安排,或者对自己管领支配力范围内的事务管理不当等{36}。如果从不涉及自然人主体的角度似乎管理过失更适用于人工智能犯罪,不过笔者认为监督过失是对一定主体对象的监督,而管理过失则是对于管理制度或危险物品疏忽的行为。从自然人和与其相关的人工智能关系来看,理解为监督关系更为恰当。比如特斯拉人工智能驾驶汽车,车主对于汽车并没有实际的管理和控制,汽车的运行系人工智能所控制,其罪过层面理解为监督过失更为妥当。所以对于监督过失理论予以发展,使其被监督者从自然人扩展到人工智能对象更为妥当。
第三,直接因果关系理论。因果关系理论是犯罪客观方面之中非常重要和内容丰富的理论范畴。因果关系的一个重要分类就是直接因果关系与间接因果关系。没有介入其他原因,只有一个因果环节的,就是直接因果关系;介入了其他原因,有两个以上因果环节的,就是间接因果关系{37}。而人工智能犯罪往往是自然人作用于人工智能,人工智能又基于其行动导致一定的危害后果。这又可以分为两种情形讨论:第1种情形,人工智能程序本身设定了固定的运算结果。比如“全国首例利用AI犯罪案”中,“快啊”打码平台所运用的人工智能本身指向识别验证码以实现非法登陆。第2种情形,人工智能程序本身仅设定了或然的运算结果。如前文所述“Jeffry van der Goot案”和“针刺机器人”。但无论哪种情形,在自然人行为与危害结果之间均介入了人工智能运算,从形式上看不是简单的直接因果关系。笔者认为,应对直接因果关系的涵射范围予以扩展,将包括人工智能中间环节的过程纳入直接因果关系流程的范围,使其涵盖上述两种情形,从而有效规制人工智能犯罪。这种理论扩展到共同犯罪的视野下更为必要,如“全国首例利用AI犯罪案”中,“快啊”打码平台则收取“深加工”费用,以一组信息加工费15元计,50%被分给了制作撞库软件的人,50%被平台开发商李某和杨某平分。其中的行为人未必全部接触人工智能、未必对于全部危害结果有预见,而且在此情况下直接因果关系理论更可以和共同犯罪中“部分行为全部责任”的原理相契合。
2.未来展望:人工智能的刑法拟制可能
未来人工智能犯罪的规制首先要回归到人工智能发展可能性的问题上。“图灵测试”对照一个人度量来检验智能机器的性能,论证了智力行为最好且仅有的标准。如果询问者不能区分出人和计算机,则按图灵的论证,可认为机器是智能的{6}。在此基础上,关于强人工智能的可能性学界也曾有争论。如John Searle认为即使有机器通过了图灵测试,也不一定说明机器就真的像人一样有思维和意识{38}。也有哲学家持不同的观点。Daniel C.Dennett在其著作《Consciousness Explained》中认为,人也不过是一台有灵魂的机器而已,为什么我们认为人可以有智能而普通机器就不能有呢?他认为像上述的数据转换机器是有可能有思维和意识的{38}。而且现实层面这种可能也在逐渐发展:人工神经网络具有自学习和自适应的能力,可以通过预先提供的一批相互对应的输入—输出数据,分析掌握两者之间潜在的规律,最终根据这些规律,用新的输入数据来推算输出结果,这种学习分析的过程被称为“训练”{39}。即人工智能所采取的分析和决定机制虽然带有一定的机械性,但是足以包含一个主体的进行判断和行为的实质要素。也有学者从人工智能的实体Agent(或译为“艾真体”)的角度予以论述,认为Agent的强定义从Agent的精神状态出发,除了要求Agent具有弱定义的特性外,还要求Agent具有拟人的特性,如信念、意志、情感等。Shoham认为Agent还可以具有的特性有:移动性(Mobility)、真实性(Veracity)、仁慈性(Benevolence)和合理性(Rationality){40}。机器人伦理研究员Kate Darling将“社会机器人”定义为“在社会层面上与人类沟通和互动的物理实体智能体”{41}。人工智能的实体化为其全面进入刑法视野提供了可能。
人工智能所带来的法律变革正在进行,为其进入刑法视野奠定了基础。主要包括以下3个方面:
第一,人工智能主体资格的肯认。AI有可能在某种程度上赋予类似于人类的道德考量{42}。从法理上讲,人类的意志自由作为处罚的假定前提,这一前提在道理上也可以适用于机器人{43}。有学者进而指出,未来的自主智能机器将有能力完全自主行为,不再是为人类所使用的被动工具;虽然人类设计、制造并部署了它们,但它们的行为却不受人类的直接指令约束,而是基于对其所获取的信息的分析和判断,而且,它们在不同情境中的反应和决策可能不是其创造者可以预料到或者事先控制的。完全的自主性意味着新的机器范式为:不需要人类介入或者干预的“感知-思考-行动”{44}。有学者甚至认为人工智能是特殊性质的法律主体,其是人类社会发展到一定阶段的必然产物,具有高度的智慧性与独立的行为决策能力,其性质不同于传统的工具或代理人{45}52。从未来而言,上述情形完全可能出现。《AIonAI机器人法》(Artificial Intelligence-on-Artificial Intelligence (AIonAI) Laws)比照《世界人权宣言》第1条的规定做出如下表述:所有机器人都具有与人类相当的理性和良心,并应以兄弟关系的精神相对待{46}。人工智能主体资格正在逐步走向现实化。
第二,人工智能行为社会意义的赋予。法律所调整的对象必须是主体的行为,不论该主体是自然人主体还是拟制主体。随着人工智能的发展,其行为的社会属性也愈发现实化,并逐步为法律规范所认可。比如人工智能创作作品,对于采用了人工智能的绘画机器人绘制的肖像画或风景画而言,在形式上就属于“以线条、色彩或其他方式构成的审美意义的平面造型艺术”。同理,由“新闻写作软件”生成的新闻报道,以及由软件生成的音乐,在形式上具备著作权法对文字作品及音乐作品的要求{47}。早在1988年英国立法就对这一问题做出规定:英国《版权、设计与专利法》( Copyright, Designs and Patents Act 1988)第178条对“计算机生成的作品”做了界定,它是指在“无人类作者”的环境下、由计算机环境生成的作品。同时,根据第178条的规定,“计算机生成的作品”明显不同于将计算机作为创作工具的作品{48}。美国学者则指出,将言论自由权利扩大到强人工智能聊天机器人存在规范和实践的困难,这可能会推动重新审视自由言论法律和理论的当代转向,进而使未来的人工智能语言表达成为可能{49}。随着人工智能行为被赋予越来越多的社会意义,其行为独立纳入刑法视野的正当性也愈发充足。
第三,人工智能责任制度的发展。关于人工智能的责任制度研究目前主要关注于对其相关自然人如何科以责任。如有学者认为,在侵权法中,大多数时候可以通过类动物、儿童、雇员的行为甚至高度危险行为来理解人工智能领域的严格责任规则。根据替代责任的理念,可以将其视为“雇主责任”规则{4}。IEEE《合伦理设计:利用人工智能和自主系统最大化人类福祉的愿景》提出的基本原则之二就是责任原则。其指出,为了解决过错问题,避免公众困惑,人工智能系统必须在程序层面具有可责性,证明其为什么以特定方式运作{14}。联合国教科文组织《关于机器人伦理的初步草案报告》提出对机器人的责任采取分担解决途径。让所有参与机器人发明、授权和使用过程中的主体分担责任{45}55。我国学者也有提出构建智能机器人民事责任的若干方案,包括:其一,借鉴《侵权责任法》上关于危险责任的规定,让智能机器人的制造商或者使用者承担严格责任( Strict Liability);其二,差别化责任规则;其三,强制保险制度和赔偿基金;其四,可以像欧盟那样,考虑赋予某些智能机器人法律人格{44}。虽然目前人工智能责任制度在关注范围和研究结论方面仍有较大的局限性,但是也表明人工智能问题已经进入法律责任的范畴讨论。
法人主体的刑法拟制也为人工智能的刑法拟制提供了先例。法人犯罪的出现与研究使得犯罪主体限于自然人的态度有所松动。如我国“通说”认为,我国刑法中的犯罪主体,是指实施危害社会的行为并依法负刑事责任的自然人和单位{50}。但是在该书“犯罪主体概述”一节中继而介绍的是“我国刑法中的自然人犯罪主体的共同要件”,而非“我国刑法中的犯罪主体的共同要件”,实际上侧面描述了单位主体的出现对于纯自然人犯罪主体认知的冲击。法人犯罪的实施并不局限于某一或某些特定自然人,而是整体体现法人的意志,并且由法人成员集体予以实施,难以仅通过对于直接实施人的分析和处罚实现刑罚目的,因而需要对于法人犯罪包括法人本身做出独立的考量。在这个意义上法人主体也是一种拟制主体。基于此,参考法人犯罪的思路,对于人工智能作为拟制主体看待未尝不是未来人工智能犯罪刑法规制的可能思路。
此外,国外学者Kurt Seelmann甚至还对人工智能的“惩罚”做了一定的探索:如果一个自主或者说部分自主的电子人犯罪,不能归因于自然人或者法人,则是其终身的耻辱,轻者应断电一周;每个电子人是超越知觉的综合体,其能力具有二次性,并非自然而生,但真实地具有(一定的)能力;电子人的自主是有限的,如果其程序设定如此{51}。当然,对于人工智能“处罚”的性质及其限度仍有待于未来随着人工智能犯罪的发展而不断深化。
四、人工智能犯罪的刑法对策展望
人工智能犯罪的刑法治理不仅需要理论层面的回应,更需要分析如何通过刑事立法的完善和适用来对其予以有效治理,对此应从理念和内容两个层面展开。
1.理念层面:注重人工智能犯罪立法的前瞻性
注重人工智能犯罪立法的前瞻性主要基于技术发展背景下犯罪极速变化与刑法相对滞后之间的矛盾。立法所立足的技术背景和社会条件都处于急速的变化发展之中,法律的制定与实施既需要有前瞻性也要正视现实的可操作性{52}。刑法的安定性与刑法的适应性之间的矛盾是风险社会发展过程中所不可避免的长期命题。原本确定的、严格的刑事立法不得不为了回应犯罪的现实发展而改变既有的立法结构与内容。特别是在恐怖活动犯罪、环境犯罪、信息犯罪、网络犯罪等新兴犯罪的冲击下,各国刑事立法均做出了较大的调整。有学者从刑事立法的活性化角度来予以论述,并将其主要表现概括为3个方面:犯罪化,即将过去未视为犯罪的行为犯罪化;处罚的早期化,即大量增加了未遂犯、危险犯、预备罪的处罚规定,逐渐使其由例外处罚类型变成常态处罚类型;处罚的重刑化,即提高有期徒刑的最高期限,加重性犯罪、杀人罪、伤害罪及各种交通犯罪的法定刑等{53}。随着人工智能及其犯罪的发展,现有刑事立法在解释和规制其过程中面临着现实的障碍,在立法层面也应对人工智能犯罪做出独立和恰当的考量,并借此推动刑事立法的更新和发展。否则,如果一味以传统的理论立场对这种倾向进行批判不仅会导致刑法学丧失社会影响力,还可能错失通过检讨立法反省刑法学本身存在的问题之机遇{54}。基于此,笔者认为秉持一种前瞻式的立法理念,推动人工智能犯罪相关刑事立法的发展。具体可从以下3个方面展开:
第一,注重对于人工智能犯罪相关概念和对象立法前瞻的界定。目前有关人工智能犯罪的相关问题仍然处在探索之中,对于人工智能及其犯罪行为等相关概念仍然缺乏统一认识。此外,由于人工智能仍然处在变化发展过程中,也导致了对于人工智能犯罪相关概念不易做出精准界定。应对其予以科学界定,使之既契合当下人工智能犯罪治理的现实,也符合未来人工智能犯罪治理的需要。这需要做到以下两点:其一,对于人工智能犯罪相关概念与对象的立法界定必须充分把握其实质,从而使之与相关的概念与对象有效区别,为科学和恰当地治理人工智能犯罪提供基础;其二,在国家立法层面对于人工智能犯罪相关概念与对象的立法界定不应过细,应为相关下位立法和司法解释预留必要的空间,从而更好地适应人工智能技术的发展阶段。
第二,注重人工智能犯罪立法前瞻性与刑法安定性的统一。笔者认为,前瞻式立法既是回应人工智能犯罪的应然选择,也与维持刑法自身稳定性和效力不相矛盾。有学者曾就网络犯罪的前瞻式立法问题做出阐释,指出在网络犯罪立法中经常出现这样的情况,当经过复杂而冗长的立法程序将某种网络行为纳入到法律进行规制时,却发现该种行为在网络上己经趋于销声匿迹了,代之而起的是新型的、法律尚未关注的行为,法律生效后很快就实质性失效的情况在网络中更易发生{55}。人工智能犯罪也是如此,其相关刑事立法既要及时回应现实中该类犯罪的治理诉求,也要注重对于刑法自身安定性的维护。基于此,人工智能犯罪相关立法规定应注重层次性,形成法律层面、法规与规章层面、司法解释层面的梯次结构,分别对于基础规范、一般规范、具体规范予以规定,法律层面的相关规定注重概括性与稳定性,法规与规章层面和司法解释层面的相关规定注重具体性和及时性,最终达到立法前瞻性与刑法安定性的统一。
第三,注重区分刑事立法的前瞻性与过度刑法化。在当代社会,过度刑法化是在理论和实践层面都需要警惕的一个趋势。有学者指出,刑法过度化是对现代刑法观念的背弃,势必引起社会治理的巨大风险。在英美国家,刑法过度所引起的罪名的增设和犯罪数量的增加导致了法院和监狱的过度拥挤,已造成了刑罚的谴责功能的大大退化{56}。前瞻式立法并不等同于盲目扩大犯罪圈,不会导致刑法的泛化适用{57}。就人工智能犯罪而言,一方面对于随着人工智能发展所产生的新型犯罪需要对其予以犯罪化,比如智能机器人犯罪的问题,在此层面确实是犯罪圈的扩大;但另一方面,随着人工智能的发展和普及,很多传统犯罪会向人工智能犯罪转移,如同互联网时代诈骗犯罪从现实空间大量向网络空间转移,因此也会导致一些传统犯罪领域犯罪圈的缩小。
2.规则层面:构建人工智能犯罪相关规范体系
人工智能的法律责任已经成为各国普遍关注的一个重要问题。IEEE《合伦理设计:利用人工智能和自主系统最大化人类福祉的愿景》提出的责任原则指出,为了解决过错问题,避免公众困惑,人工智能系统必须在程序层面具有可责性,证明其为什么以特定方式运作{14}。有效治理人工智能犯罪需要在前瞻性理念的指导下探索和建立相关刑事责任规范体系。结合前述理论和立法分析,笔者认为应从以下3个方面展开:
第一,人工智能犯罪的主体制度。如前所述,现阶段人工智能尚不具备独立的犯罪主体资格,应充分运用现有犯罪主体理论协调和解决人工智能犯罪的主体问题,重点规制与人工智能相关的自然人与法人。在这一层面需要解决的主要问题是如何将已经具有一定自主性的人工智能在既有的仅承认自然人与法人的犯罪主体体系中予以合理解释。一个可行的思路是参考既有犯罪主体中的一些主体否定制度,比如间接正犯(否定他人的主体资格)、原因自由行为(延展行为人的主体资格)等问题的立法模式,使人工智能恰当地进入现有刑事主体立法框架,达到立法与处罚的协调。从长期来看可以参考法人主体的拟制思路,逐步探索构建人工智能刑事主体资格的法律拟制模式,基于人工智能的发展逐步构建和完善人工智能主体的意思要素、行为要素,使之正式进入刑法主体范围。
第二,人工智能犯罪的行为模式。应探索人工智能犯罪行为的规范体系,在类型化的基础上对其予以全面规制。其中应重视基于不同罪过形态对于人工智能犯罪予以类型化:对于人工智能过失犯罪,应在立法中明确与之相关的各个责任主体(如人工智能的制造人、使用人等),以及相关主体的注意义务及其具体内容,构建完整的过失犯罪行为立法模式;对于人工智能故意犯罪,应在立法中明确相关主体的罪过要素(犯罪目的等)、行为要素,并就共同犯罪问题做出独立和科学的规定。此外,关于人工智能犯罪行为模式的立法也应与人工智能犯罪的主体制度协调。
第三,人工智能犯罪的刑事责任。就其刑事责任的设置可以在借鉴和参考民事责任的基础上展开。国内有学者就人工智能的民事责任予以探讨:其一,对于智能机器人,有损害必有责任。其二,如果最终负有责任的主体得到确认,其所应承担的责任应与其给予机器人的指令级别以及机器人的自主性程度相称。其三,为自主智能机器人造成的损害分配法律责任是一个复杂的问题,一个可能的解决方案是适用于智能机器人的强制保险制度。其四,可以考虑建立赔偿基金,作为强制保险制度的一个补充。其五,与保险、赔偿基金等相配套的机器人登记制度和机器人法律地位{44}。虽然诸如保险制度等规定不宜直接引入刑事领域,但是关于损害与责任的探讨完全可以借鉴。在此基础上,笔者认为人工智能犯罪的刑事责任可从以下两个方面展开:其一,对于相关自然人、法人主体科以适当的主刑与附加刑,以契合当下的人工智能犯罪刑事打击路径,实现个别预防与一般预防。其二,设置与人工智能领域相关的资格刑,以防止再犯可能的发生。而人工智能犯罪资格刑的设置也可能为未来人工智能主体刑法拟制的责任化提供可能,即人工智能主体可能在将来被科以“资格刑”的处罚方式进入刑事责任领域。
五、结语
美国日微系统(Sun Microsystems)公司联合创始人和首席科学家比尔•乔伊忧心忡忡地预言,21世纪最强大的3大技术——机器人技术、基因工程与纳米技术——结合在一起,将会生成一个“有灵魂的机械”时代,这些智能机器人将融入并取代人类,使人类濒临灭绝{58}。在此意义上人工智能最大的问题并不在于他是否具有如人一样的智能,而是在于它能否成为人们最需要的那种工具。
随着社会的发展变迁特别是风险的流变,在学派的争论与交织中,刑法理论与实践日渐转型和发展。以过失理论为例,经历了从旧过失论、新过失论、新新过失论等跌宕与反思,并经由被允许的危险和信赖原则修正而形成今天的过失理论。在这个意义上,刑法理论的定型化、体系化均只具有一定阶段的历史意义和社会意义,刑法理论的更新发展是与社会发展相适应的必然趋势。在人工智能风起云涌中,人工智能犯罪也正在为既有刑法理论与立法的发展提出时代的命题。探索人工智能犯罪的理论与立法回应既是立足于当下的新问题,也是展望未来的新思考。我们有理由相信这样的探索过程会带来既有刑法理论的发展与更新。
全部0条评论
快来发表一下你的评论吧 !