人工智能独立承担刑事责任的提出如何保障AI技术和产品的人类可控性

电子说

1.3w人已加入

描述

技术领域发展日新月异。人工智能(下称AI)是具有智能行为模仿能力的机器,它是在电脑中,模拟人类的行为和认知程序,自然地学习所有知识的智能大脑。它正在越来越多地取代人类的活动,同时也给人类带来危险,对此,AI所产生的现代性问题是:要将这些越发智能的AI实体和其他法律主体一样纳入法律社会控制体系中来吗?

在20世纪50年代,美国科幻学家阿西莫夫为了预防AI可能产生的威胁,设定了著名的机器人三条原则:

第一条:机器人不能对人类产生危害。且不能因为忽略这种危险,而导致危及人类安全。

第二条:机器人必须要服从人类所发出的命令。但是,所发出的命令如果违反第一条的话,不在此限。

第三条:机器人只要在不违反前两条规定的前提下,必须保护自己。

但是,这显然并不能消除人类对于AI的恐惧。为了防止未来AI对人类法益产生侵害,国内外很多学者提出“人工智能独立承担刑事责任”的观点(下称“独立责任承担说”)。这种观点认为AI的运算法则可能拥有很多的特质,且这些特质远超于一个普通的人。但是这些特质并不是施加刑事责任所必备的。当一个人或者企业同时满足外部(危害行为)和内部(自由意志)要素,就可以被追究刑事责任。如果AI也可以满足这些要素,且事实上满足的话,则毫无疑问也要追究AI的刑事责任。“独立责任承担说”的核心依据是AI符合施加刑事责任的内部要素,即独立的“控制能力与可培养的辨认能力”。而外部要素的满足并不成为“独立责任承担说”的阻碍,他们认为,随着技术的发展,让“危害行为”脱离“生命体要素”“突破传统理论显然不足为奇且无可厚非”。只要AI能够机械地控制其肢体动作,则任何动作都可以被认为是AI的行为。

在此基础上,“独立责任承担说”为AI设定了有针对性的刑罚措施。这包括对AI惩处罚金刑;对AI施以自由刑;对AI施加死刑,包括对躯体的永久销毁和对AI的数据予以删除。

但笔者认为,人工智能独立承担刑事责任不具有理论自洽性,理由是:

第一,AI的行为与自由意思密切关联。刑法上的行为被理解为通过意思而被控制的举止,所以,AI的举止在外观上看起来像是自己进行的行为。确实,AI会通过四肢做出动作、通过系统发出语音、通过中央控制系统对周边环境施加影响等等,但是不能因此肯定地说这些举止是基于自由意思进行的控制。这其中的“意思”更可能是对AI进行程序设计的人或者使用AI的人的意思。这样的话,就会将AI的举止归属于机器背后的人,而不是AI本身。要承认AI的“行为”满足刑法上的行为的要素,就必须要在AI自身当中找到和人类意思完全相当的意思。

第二,AI不具备与人类等同评价的自由意思。自由意思这一概念是为实现一定社会目的而设计的归责产物。但是,责任并不是没有限制地任意地予以归责。对于自身当前以及过去的自我决定,无法通过伦理的评价基准体系进行评价的人,也即,没有善恶判断的人是无法进行伦理上的对话的,因为他不能对伦理的非难进行回应,也即其不具有作为责任必要条件的自我反省能力。因此,将AI作和人类伦理的自我控制同样的评价,还为时过早。

而且,即便AI具备了和人类同样的伦理控制系统,也未必就具有了自由意思。德国联邦最高法院曾就刑事责任作过如下经典表述:“责任非难的内在根据在于人道德上的成熟,与此同时,只要自由且道德地自我决定的能力没有因为病理而短时间受到麻痹,抑或长时间受到阻碍,那么就是有自由、答责且道德地自我决定的能力。因此,其就能够决定遵循合法行为,抵抗不法行为,使得自己的态度符合法律的当为性规范,回避法律所禁止的行为。”

那么何为道德上的成熟?道德的成熟需要社会认同。我们在认定刑法上的责任的时候,现实的社会关系中的期待和归责被认为非常重要。今后随着AI技术的进化,存在给人类认为AI完全可以自由进行决定的印象之可能性。但是,AI是否实际能够通过自由意思进行行为并不重要。即便是人类的自由意思当中,实际上我们也不知道自己是否真的处于自由意思当中,我们不过是透过周围第三者的评价,来判断一个人是否有自由意思。因此,对于机器人来说,从第三者的观点来看,该如何评价才是最重要的问题。因此,在AI达到能够被人类社会所接纳,进行同等交流,被评价为和人类完全无差异的状态之前,尽管AI具备“控制和辨认”能力,也无法被人类评价为具有自由意思。

第三,对AI施加刑罚不具备可行性。首先,关于对AI的罚金刑,有学者提出,对AI施以罚金可通过强制让AI的制造者和使用者履行诸如购买保险等法律义务来最终实现。这实际上是将对AI的处罚转嫁给了制造者、使用者,违背了刑法的责任原则。其次,关于对AI的自由刑,对AI处以自由刑并不会获致与人类同样的效果。人类虽然能够理解自由的意义,但是AI自身却无法理解该处分的意义。最后,关于对AI的“死刑”,如果将AI视其为与人类一样的主体,则对AI施加“死刑”是有违人道主义的。我们尊重人的生命权,主张废除死刑,就同样不能对与人类具备同等地位的AI施加死刑。

“未来已来,但不是说来就来”,对于AI时代的法律检讨应立足于当下,对于AI可能产生的威胁所做的刑法对策,应当根源于刑法的基本理论。当然,AI时代给我们带来福利的同时,我们需要关注其可能出现的潜在危险。而预防这种技术风险,更应从伦理的角度高瞻远瞩,尽早确立严格的AI研发、生产技术伦理规则和法律标准,保障AI技术和产品的人类可控性,或许是当下更急需的时代的需要

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分