作者简介
# 朱振 吉林大学法学院、理论法学研究中心教授、博士生导师,法学博士;《法制与社会发展》副主编。先后在《政法论坛》《法商研究》等期刊发表论文六十余篇;代表著作有《法律的权威性:基于实践哲学的研究》等;代表译作有《康德法哲学及其起源》《牛津法理学与法哲学手册》等。主要研究领域为法律哲学、权利理论、中国传统法律思想等。
# 摘要 自由意志是归责的基础,以基因编辑技术为代表的基因工程、医疗性人工装置和人工智能构成了对自由意志的根本挑战,对法律责任的认定影响甚大。这些挑战是根本性的,而不是工具意义上的。它们在法哲学上可以分为两个方面:一是现实的挑战,即以基因工程和弱人工智能为代表的新兴科技引发了人类在自由意志方面的争议;二是未来的终极挑战,即强人工智能体被认为具有和人一样的自由意志,能够成为法律主体,从而承担完全的法律责任。现实的挑战构成了责任承担的新的“宽恕”条件;而未来的挑战也值得认真对待,因为自由意志不仅关乎责任,也关乎人性尊严。
自由意志(free will)是责任的核心,自由意志的重要性不仅在于它构成了责任的前提,更在于没有自由意志也就没有人的尊严。这里的“自由”不同于政治或法律意义上的“自由”,即使我们已经享有政治或法律自由,也不意味着我们对自我行为具有完全控制能力,因此,自由意志讨论的是一个形而上的问题,即我们能够在多大程度上支配自己的行为并按照真实的自我来行动。
徐向东:《理解自由意志》
北京大学出版社2008年版
本文甚少涉及自由意志的一般理论问题,而主要讨论人工智能时代的自由意志与法律责任的归责难题。人工智能是这个时代的标志,当然这不意味着这个时代的特征仅限于人工智能;基因工程同样是这个时代的标志,其他的新科技(比如信息技术)也构成了这个时代的特征,但都不如人工智能具有代表性。在人工智能时代由新科技引发的所有挑战中,对自由意志的挑战是最硬核的;韩水法甚至认为,我们在人工智能时代所面临的考验最终都会被还原或归结为对自由意志的挑战。这一挑战在理论上是如此的根本,以至于我们不得不直面这一挑战,分析不同挑战的性质并尝试给出方向性的应对方式。
不仅人工智能,甚至一切科技进展,它们对法律的挑战在性质上都可以分为工具性挑战和根本性挑战。工具性挑战意味着,在法律自身范围内我们可以找到解决办法;根本性挑战意味着,我们要修正或改变既有的法律理论或实践,或创造出全新的理论或实践。从法学史上看,工具性挑战一直都存在着,可以说是一个常态。从有体物到无体物,从有形的财产到数据形态的财产,从有人驾驶汽车责任到无人驾驶汽车责任,大多数所谓的挑战都可以通过对概念的(扩张)解释得到解决,少部分需要通过专门的立法来解决,很少有机会出现根本性挑战。本文所讨论的人工智能时代中的对自由意志的诸多挑战既有工具意义上的,又有存在论上的,即它们都直接引起了人类本身的某些变化,或有可能创造出新型自由意志,尽管这些改变都有程度上的差别。这些重大改变可以分为两个部分:一是基因技术、弱人工智能技术以及一些新兴医疗手段可能会导致人类的存在方式和认识方式发生关键的变化,即人类的生物性质可能会发生改变,这挑战了自由意志的既有生物学基础;二是通用(强)人工智能的出现可能会创造出新型智能体,其标志之一就是拥有自主的自由意志,这一挑战可以说是终极性的。
对于上述第二个方面的终极挑战,学界存在很大争议,在可预见的将来恐怕都无法看到通用人工智能(artificial general intelligence,简称AGI)的出现;而且一旦出现,问题也许就不是法律能否容纳人工智能,而是人类要和人工智能体协商创造新法律了。第一个方面的挑战是可见的,也是法律责任的理论与实践面临的现实难题。它之所以可以构成一个根本挑战,就是因为自由意志的假设对法律来说太重要了,它是法律主体性和责任的基础;但是其根基又是如此的脆弱,不仅面临各种传统决定论(determinism)的摧毁性挑战,而且现在又面临着人工智能时代各种新技术所引发的挑战。后者也是某种程度上的“决定论”,它们以一种可见的方式让我们感知到我们的意志可能不是自由的,而且有可能还不是唯一的,这动摇了法律上关于自由意志的重要假设。技术进步所引发的这种决定论不是一种内在决定论,而是外在决定论。因此,我们对这种决定论难题的回应还可以在既有法律的框架内尝试寻找解决之道,或风险预防之道。在一般意义上阐述自由意志的假设与法律责任的关系之后,本文将依次讨论人工智能时代对自由意志的三种挑战,即内在挑战、外在挑战和终极挑战,分析每一种挑战的性质以及它们对归责(承担法律和道德责任的条件)的影响,最后从总体上概述法律对这些不同性质的挑战的回应之道,包括工具性解决方法和风险防范措施。
一、自由意志假设与法律责任
作为一个经典的哲学理论,自由意志学说有着悠久的历史。通过对思想史的考察,蒂莫西·奥康纳(Timothy O'Connor)和克里斯托弗·富兰克林(Christopher Franklin)得出结论说,自由意志在传统上一直都被构想为控制一个人的选择和行动的能力(power);这意味着选择和行动都取决于行动者本人,这是什么意思呢?他们认为,其中包含两个方面的内容:第一,行动者能够作出不同的选择,至少能够不作出选择或行动;第二,行动者是其行动的来源。在对自由意志的现代哲学理解中,自由意志的核心也在于选择的可能性和选择的能力,即能够以其他方式而行动。这当然也意味着,行动者在作出选择时,有各种不同的选项向其敞开,这些选项能够真实地被选择。
晓非:《归责与规范: 一种道德责任理论》
商务印书馆2019年版
责任与自由意志的关系问题,是一个经久不绝的哲学争议点,催生了大量的文献。
徐向东主编:《自由意志与道德责任》
江苏人民出版社2006年版
在道德哲学上,自由意志和责任存在着紧密的关联,学者们一般也认为道德责任(moral responsibility)是承担法律责任的基础。但其实二者的关系比较复杂,相比于道德责任,法律责任具有强大的制度基础以及建立在这一基础之上的权威性。因此,有些法律责任(比如侵权法上的无过错责任)并不一定以道德上的可谴责性为条件,单纯就是法律制度的设计,尽管这一设计也是以法律上所要保护的价值为基础的。在现代法理论中,被广为接受的法律责任概念都是比较狭义或严格的,单纯指“违法者在法律上必须受到惩罚或者必须作出赔偿”。这也是当前民法或刑法教义学所普遍接受的对法律责任的界定,这一界定倾向于从惩罚或不利后果的角度来描述责任;除非有宽恕事由,否则违法者就要承担法律责任。这是否意味着“自由意志”这一抽象的概念在讨论法律责任时不再具有意义了?其实并非如此,自由意志问题依然是法律责任中的核心难点,只是在严格的法律责任界定中,它是隐而不显的。
就现代法理学中的法律责任概念而言,哈特的界定对法律责任之讨论方式的转变起到了决定性的作用。这种界定将视角从自由意志转型到后果(惩罚或赔偿)来重新讨论严格意义上的法律责任,使之能够与道德责任以及日常用法上的责任区分开来。这正如林格伦(J. Ralph Lindgren)所指出的:“直到相当晚近,关于刑事责任的讨论被一些模糊的和含混的形象支配着,它们来自于有关自由意志的文献,这类文献首先出现在中世纪早期的基督教神学中。”
[古罗马]奥古斯丁:
《论自由意志:奥古斯丁对话录二篇》(修订译本)
成官泯译,上海人民出版社2020年版
哈特认为,责任(responsibility)是一个多领域、多意义的概念。通过因船长饮酒而导致事故的一个复杂例子,哈特界定了四种类型的责任:角色责任(role-responsibility)、因果责任(causal responsibility)、必然责任(liability-responsibility)和能力责任(capacity-responsibility)。其中第三种指的是严格法律意义上的责任,他用liability来表达这一责任,这种责任只是responsibility中的一种,即liability包含了严格意义上的法律责任(也存在liability意义上的道德责任)。其余的三种责任在法律中都有表现,而且是法律人、道德主义者、历史学家以及普通人所共享的语词;但只有“legal liability-responsibility”意义上的责任才是法律所特有的。
这是否意味着自由意志在哈特式法律责任认定中没有什么地位了吗?其实并非如此,就能力责任,库茨(Christopher Kutz)指出:“船长决定去饮酒并不是一个病理学上的结果,也不是其他某个无关于审慎的因果性过程所导致的结果,而是反映了船长运用一个理性自决的能力(a power of rational self-determination)。在此意义上,负责任只是拥有自治(self-government)能力的一个问题。”显然,能力责任的核心关切是行为人的内在精神方面和自我控制能力,尽管这一能力在哈特意义上的责任论中,主要是指行为人对规范和诸多环境条件的理解、选择和控制能力,但是这一方面再往深层追究就涉及到人的自由意志问题。最起码,一个人不能对自己不理解和无法控制的事态承担道德或法律责任。比如,法律上无行为能力人或限制行为能力人,就可以被免除或减轻法律责任。因此,无论是道德责任还是法律责任,一般都建立在自由意志的基础上;一个人只有是自由的,才能为自己独立作出的选择或行动负责。否则我们很难说,一个人要为不受自己控制的行为承担责任。
这就是法律责任或道德责任中归责的一个主要条件,即控制力条件(control condition)。要满足控制力条件,行动者要对行为有足够的控制力,这样的行为才是行动者自己的行为,而不是被外在因素所完全决定的。在这一意义上,自由意志就是控制力条件的本体论载体。换言之,控制力的概念实际上就是要在被归责的对象与其行为之间建立一种内在关联,为什么要负责任,就是因为他有控制力。这就是凯恩(Robert Kane)所说的可归责的行为必须要“取决于我们”(up-to-us-ness),他指出:“当我们认为自己作为行动者能够以各种方式来影响世界时,我们就相信我们拥有自由意志。开放的各种备选项,或者说可选的多重可能性,似乎就在我们面前。我们在其中推理、慎思,并作出选择。我们感到,(1)我们选择什么且怎样做,都‘取决于我们’;这意味着,我们本可以作出不同的选择,或采取不同的行动。正如亚里士多德所注意到的:当行动‘取决于我们’时,不行动也同样如此。这种‘取决于我们’同时也意味着,(2)行动最终控制在我们这里,而不取决于在我们之外的不受控制的因素。”
控制力构成了归责的正当性基础,而自由意志就是这种控制力的载体。所以我们说在法哲学上,自由意志是法律责任的基础或者说前提,这尤其体现在刑法哲学上。自由意志论是刑事古典学派的核心命题,也是研究犯罪的前提。黑格尔指出:“自由是意志的根本规定,正如重量是物体的根本规定一样。……自由的东西就是意志。意志而没有自由,只是一句空话;同时,自由只有作为意志,作为主体,才是现实的。”于是在刑事责任上,“凡是出于我的故意的事情都可以归责于我,这一点对犯罪来说特别重要”。黑格尔对刑罚的基础作出了深刻的哲学论证,并确立了自由意志才是刑罚的基础,这同样也引发了关于刑罚基础的法哲学辩论。
拉里·亚历山大(Larry Alexander)在讨论刑事责任问题时指出:“归责的前提在于,在一定范围内,我们能够控制并在道德上有责任抵制一个人的性格倾向及其面临之环境的诱惑。当然,这一论题是自由意志/决定论之争议的核心。但是除非拒绝道德责任,并因此完全拒绝归责和消极应得(negative desert),否则报应主义的假设就是,先天的性格与环境并不是天命,而且即使各种选择一般是可预期的,一个人仍可逆性格和诱惑而作出选择,于是他就被合宜地认为对此负责。”显然,亚历山大还是在坚持刑事古典学派的基本主张,而反对刑事实证学派;他认为一个人的性格和环境因素不是决定性的,行为人依然可以并能够作出各种不同的选择,这就是刑罚归责的正当性基础。而刑事实证学派显然体现了一种社会决定论的观念,即每个人的行为都是由社会因素决定的,而不是自我决定的。自由意志构成了法律责任(尤其是刑事责任)的基础,在刑法的理论与实践上,这一点都得到了认可。德国联邦最高法院在一份判决书中指出,行为人本可以作出不同的选择,却仍选择不法,此时就应负刑责;该判决进一步指出:“此处咎责的内在原因是,人类具有自由的、负责任的且合乎道德的自决权。一旦行为人在道德上已经成熟,而且其道德的自我决定机制没有因为病理过程而暂时瘫痪或被永久性损害,他就有能力作出正确且合法的选择而非错误且非法的选择,他就可以依照法律规定的义务来规范自己的行为,并避免实施法律所禁止的行为。”
这两个刑罚学派争论的核心就在于自由意志与决定论的对立关系。自由意志从其产生开始就受到了各种决定论的挑战,这种挑战来自两个方面。一是物理学定律的普遍性,如果说这个世界是受到自然规律支配的,那么人们大脑中的神经元活动也是受到大脑的物理和生物化学规律支配的。关于这种决定论,因瓦根作过这样一个概括:“如果决定论是真的,那么我们的行为就是遥远过去的自然规律和事件的结果。但是,在我们出生之前发生了什么并不取决于我们,自然规律是什么也不取决于我们。因此,这些事情的后果(包括我们现在的行为)并不取决于我们。”二是外在社会环境的决定,这已为情境心理学(situationism)的研究成果所证实,微小的环境因素也在很大程度上决定了人们的行为选择。因此,决定论包含着广泛的内容,那些决定性因素可能包括上帝或命运、遗传与环境、心理或社会训练等,于是决定论也表现为多种形态,比如逻辑决定论、神学决定论、生物决定论、社会决定论等。自由意志与决定论是对立的,在处理这一对立关系时,哲学家发展出了三种立场:强决定论(hard determinism)、意志自由论(libertarianism)和相容论(compatibilism)。前两种是完全对立的,但都可以称为不相容论,只是在不同方向上发展了不相容关系。
现在,相容论是被哲学界普遍接受的,既承认决定论的存在,也不否认自由意志的独立性。刑法哲学家摩尔(Michael S. Moore)遵循休谟的进路对这种相容论作了如下界定:“无论何时,只要我们的选择(或意图)导致了所选择(所意图)的行动,我们就都是自由的。无论何时,只要我们的选择因为我们作出了这些选择而产生了我们想要的结果,我们就都拥有责任所需要的力量(power),即能力和自由意志。这就是这些术语的相容性意义,因为我们选择如此行动的原因,与这些选择本身是由我们无法控制的因素导致的,是完全相容的。关于这一版本的相容性,成为一个起因绝不要求其应是一个无原由的起因。”其实,我们也不得不接受相容论,否则道德或法律责任将无法存在。
自然定律意义上的决定论的挑战构成了我们理解自由意志和责任的一个背景,但现在麻烦的是道德与法律责任面临另一种类型的“决定论”的挑战。这种决定论不是在物理学或生物学的意义上全面否定自由意志的存在,而是在承认自由意志的前提下,从“人为”(artificial)(或人类操作)的意义上发起了对自由意志的挑战。它不是物理定律的挑战,而是人为的挑战;不是先天的挑战,而是科技进展带来的挑战。从总体上说,这种挑战是全新的。在哲学史上,自由意志与决定论的关系非常复杂,本文在此不作讨论。这里只是想指出,有关决定论或必然性的理论在讨论自由意志时非常重要,本文所讨论的问题并不致力于对自由意志/决定论之传统难题的解决,而是在这一背景下指出可能存在的另一种决定论。相对于传统的且在很大程度上未知的决定论因素,这些“决定”因素都是外在的、可见的、可把握的,尽管其内部也可进一步区分内在与外在因素。
由内到外,人工智能时代的自由意志面临三重挑战:一是基因编辑等生物技术在内在的意义上改变了人的生物属性,在遗传学上自由意志不再是一个偶然性的结果,这是自由意志面临的内在挑战;二是人工智能时代作用于神经的各种综合性医疗手段,比如人工耳蜗、脑起搏器、不完全控制人之行为的脑机接口(通过技术直接刺激大脑)、生物芯片等,也有可能改变人的生物属性并进而影响到人的自主意识和决定,这是自由意志面临的外在挑战;三是通用人工智能有可能创造出全新的不以生物特质为基础的自由意志,从而创造出全新的法律主体,或者通过脑机接口等新型人工智能手段来完全控制人脑,这是自由意志面临的终极挑战。这三种挑战有的是真正的、完全的挑战,比如第三种挑战;有的是不真正的挑战,即可以在现有的理论中得到解释或化解,比如第一种或第二种挑战中的一部分。因此,这里所作的三种挑战的区分与本文一开始所引的陈景辉所作的两种挑战的区分并不重合,只是区分的角度不一致。终极挑战在性质上是根本性挑战,内在和外在挑战中,有的属于根本性挑战,也有的属于工具性挑战,工具性挑战可以在现有法律框架内得到合理解决。
另一方面,这些挑战有的可能涉及到对技术的滥用,也肯定会包含合理的使用,比如治疗严重的遗传性疾病。因此,对人工智能时代自由意志的讨论在规制措施上就包括两个方面:一是探讨什么样的技术使用算是滥用,从而需要在法律上予以禁止,或事先进行风险防范;二是直面正当的挑战,探求应对措施,因为技术的合理使用一样会导致对自由意志的挑战。因此,一个完全的讨论应该是包含这两个方面的,下文就具体讨论这三种挑战以及法律上的应对之道。当然,最强的那种挑战现在还处于预想之中,没有变为现实,甚至有学者认为,现有的人工智能技术发展路线不可能从根本上创造出全新的主体,人的自由意志不会受到这种挑战。而前两种挑战可以说已经成为现实,或正处在成为现实的路上。
二、内在挑战:基因编辑摧毁自由意志了吗?
基因编辑或基因组编辑(genome editing)是一种新兴的基因工程技术,能够通过添加、替换或删除DNA碱基对来改变基因组序列。
美国国家科学院、美国国家医学院主编:
《人类基因组编辑:科学、伦理和监管》
马慧、王海英、郝荣章、宋宏彬主译,科学出版社2019年版
基因编辑技术CRISPR/Cas9被称为“基因魔剪”,两位发现者沙尔庞捷(Emmanuelle Charpentier)和道德纳(Jennifer A. Doudna)获得了2020年度诺贝尔化学奖。这项技术在生命科学领域产生了革命性影响,有可能实现人类彻底治愈或消除严重遗传性疾病的梦想。基因编辑大体上分为体细胞的基因编辑和生殖细胞的基因编辑,前者一般作为基因治疗的手段而不会引起争议,因为作为一项医疗技术,对体细胞的基因编辑既不会改变人类遗传结构,所改变的基因也不会遗传给下一代;而对生殖细胞的基因编辑则与此相反,它不仅改变了一个个体的遗传结构,而且还会使被改变的基因遗传给下一代,更严重的还会污染人类的基因池。后一种意义上的基因编辑有可能会对人的自由意志产生影响,因为这种技术有可能改变人的生物结构,从而在根本上改变自由意志的生物基础,即自由意志在某种意义上变成了被人为决定的,尽管不是完全被决定的。关于这种决定论,哈贝马斯有着深刻的论述。早在2001年哈贝马斯关于基因工程所做的一场演讲同样适用于我们关于基因增强(genetic enhancement)的讨论,尽管那时基因编辑技术还未出现,而主张基因增强具有正当性的自由主义优生学(liberal eugenics)则出现得更早。另外,哈贝马斯主要基于自主性和平等进行论证,但自由、自主性和自由意志三个概念之间存在紧密的联系,我们是自主的就是因为我们拥有自由意志。
哈贝马斯重点引证了哲学家汉娜·阿伦特(Hannah Arendt)关于“出生”(natality)的论述,并赋予其重要的哲学意义。阿伦特注意到,孩子的出生不仅仅是另一个生命史的开始,而且是一个新的生命史的开始。于是,哈贝马斯指出:“她把人生的这一引人注目的开始与行为主体的一种自我理解联系起来了,即行为主体以其自由意志能够‘造成一个新的开始’。”在阿伦特的理解中,这种“自由意志”意味着一种新的开始,关键是“造成”,这种新的开始是出生所固有的或内涵的。出生内涵在所有的人之行动中,于是阿伦特认为,出生而不是必死性(mortality)也许是政治思想的核心范畴。从阿伦特的论述中,哈贝马斯作了进一步的发挥,他在出生的偶然性与自由之间建立了根本的联系,这进一步发挥了出生的哲学意义。哈贝马斯认为,出生标志着一个新的开始,这意味着一系列的区分:自然与文化、一个人的机体的自然命运与社会化命运、不在我们掌控中的开端与历史实践的可塑性。正是从这些区分出发,行动主体才可能实现自我的归属。一个人要成为行动的创造者(author),前提就是其要成为生活史的创造者,这就需要人身的存在本身是一个自然命运的延续,这就回溯到了超越社会化的过程。于是,哈贝马斯总结道,自然命运不在人类的掌控之中,这一事实对于我们的自由意识来说是根本性的。
阿伦特与哈贝马斯的论述在某种意义上阐述了增强型基因编辑对人类自由意志的摧毁的可能性,这种行为在哲学上得不到辩护。因此,一种正确的立场就是捍卫出生的偶然性,并高度重视出生的自然事实所具有的哲学意义。没有自然意义上的、不受人类掌控的“出生”,就意味着存在一个决定者,这个决定者就参与了被编辑之人在生活中的创造,就意味着这个人的生活史存在多个作者,而不是只有一个作者。这样,这个人就不是自己生活史的唯一作者,也就不再享有行动的自由,在根本上就不再是一个自由的行动者,不再以自主的自由意志创造自己的生活史。显然,在哈贝马斯的推理中,有一个根本的道德实践预设,即人在伦理上要为自己的生活负责,通过基因技术来“设计”后代就摧毁了人类道德实践的这个根基。因此,增强型的基因编辑是完全不可接受的,那么治疗型的基因编辑是否符合哈贝马斯的论证思路呢?表面上看,似乎也不符合,因为任何类型的基因编辑都会改变人的出生的偶然性,从一开始就把自然繁衍变成了一个社会和文化过程,混淆了二者之间的区分。
但哈贝马斯似乎认为,治疗意义上的基因工程在道德上是可接受的。基因研究和基因工程的进展因营养改进、健康和长寿而获得了正当理由。基因治疗不同于通用性基因改进,后者被认为是一种正当的干预,符合自由主义的中立性原则;通用性基因改进致力于提高被称为自然的基本善(natural primary goods)的诸多能力,即作为通用性手段的能力,这种能力服务于任何一种人生计划。也就是说,基因改进的目的不为增强任何一项特定的能力,而是提升通用的能力,这种能力是为任何一项人生计划服务的。这实际上还是一种增强,而基因治疗则是针对严重的遗传性疾病,不为提升通用的能力,也不为增强一种特定的能力,其目的是把某种特定的能力恢复到正常的水平。这符合医学治疗的伦理原则,也是对人的尊严和生命平等性的一种尊重。应当说,治疗型的基因编辑并未事先对人的自由意志产生决定性影响,而只是恢复一种正常的自由意志。因为对于潜在的严重遗传性疾病患者来说,其是没有正常运用自由意志的空间的,因此这样的人也是法律上的限制行为能力人或无行为能力人,所承担的法律责任也是有限的,或无需承担法律责任。
在自由意志的层面,多夫·福克斯(Dov Fox)总结了哈贝马斯的观点并认为,基因增强危及传统育儿实践允许孩子保有的自由意志的意义,他把这一看法视为反对自由主义优生学的一个重要理由。哈贝马斯也意识到,基因工程并不比随意的基因重组在更大程度上决定了子孙后代的人生计划,其中的关键在于,我们的出生对我们把“自身设想为我们自己生命之作者”(conceive of ourselves as authors of our own lives)的能力有一个深远的影响;于是福克斯总结认为:“哈贝马斯并不担心基因工程实际上会将后代锁定在设计者所选择的角色上,相反而是担心,已经被作者所设计的事后认知将会引起基因禁闭的感觉,它们破坏孩子对自身自由地塑造其生活过程的理解。”显然在这里,重要的不是生物学上的事实,而是任何基因增强的行为都将改变一个人以后的人生规划的能力和自由;出生本身不仅是一个偶然的自然事实,也具有重要的哲学意义,尽管以往的哲学家并不太关注这件事的理论意义。
在某种可理解的意义上,之所以说这种挑战是根本的,是因为原来我们认为自由意志虽然无法被证实,但物理学定律或决定论无法彻底推翻或否认自由意志的存在;而且决定论自身也面临着认识上的悖论,即无法离开自由意志而讨论决定论。这就是韩水法所指出的,我们讨论自由意志所直面的一个事实:“意识和自由意志的存在并不影响自然界的因果性,而从另一方面来说,所谓因果性正是通过意识和自由意志的活动而被认识的。对人类来说,倘若没有意识和自由意志,物理世界的因果规律也就无从谈起。”而现在这种决定论不是来自无法证实的物理定律,而是来自对人本身的改造;这种改造之所以会挑战自由意志,就是因为被改造之后的人将不再完全是自然选择的生物人,而有了人为因素的加入。这时,自由意志的物理基础发生了改变,人不再是自然进化意义上的生物人,而在某种意义上被决定了。一般来说,这种决定可以源自两个方向:一是这里所讨论的基因编辑技术,它导致人的自然生物基础在内部被攻破;二是脑科学与人工智能技术的结合,它导致人的生物基础在外部被攻破。总之,它们都使人成了生物人与人工因素相结合的混合人,下一部分再详细论述第二个方向。
在基因工程技术被发明之前,人类的进化是一个自然的过程,人为的因素会影响但不会决定这个过程;或者说,人为的因素在自然的意义上构成了这一过程的一部分。但随着基因工程技术的发展,尤其是基因编辑技术的出现,这一过程发生了根本的改变。人类在技术上可以决定后代的遗传性质,从理论上说,这对人的自由意志会产生根本的影响。我们会问,这种改变是不是在某种程度上决定了后代人的想法?是不是削弱(甚至取消)了后代人实现人生计划的能力和自由?根据哈贝马斯等人的看法,确实如此。这是否意味着基因编辑过的人在自由意志上是有缺陷的,以至于需要减轻或免于承担责任?尽管将增强型基因编辑技术应用于人体在世界各国的法律中基本都是被禁止的,但在这里我们只是讨论一个理论问题;而且在某种程度上,这一讨论的结果也适用于治疗型基因编辑。因为上述问题都涉及到一个根本性的或一般性的问题,即在维护人类自由意志的层面上增强型基因编辑是可允许的吗?或者说,它对自由意志的改变是决定性的吗?
反对通过基因手段的人体增强在哲学上似乎有比较深刻的基础,哈贝马斯的论证看起来也具有强大的说服力,因为他在坚守一种注重偶然性和自然的理解模式,带有强烈的古典式人文主义色彩。其实在这条论证之路上,哈贝马斯并不孤单。桑德尔、福山、卡斯(Leon Kass)等人也同样采取了这一论证逻辑,他们共同认为人类增强是一种“普罗米修斯式的渴望”。福山认为,生物技术正在以某种方式导致我们失去人性,即“某种本质属性(essential property),它总是在支撑我们关于我们是谁并应向何处去的感知”。但是具体到自由意志,问题就变得更复杂了。自由意志作为一种理论假说,最重要的根基就是反决定论,无论是生物决定论还是物理决定论。但是,哈贝马斯等人的看法恰恰就是一种生物决定论,或者说一种变相的基因决定论。而人的自由意志的形成是一个复杂的综合性因素的结果,社会环境的影响也很大,是一个系统性的各种人与环境因素互动的结果,而不完全是由基因决定的。
许多学者正是从这个角度批评了以哈贝马斯为代表的论证模式,比如徐向东在科学哲学的意义上指出,基因决定论并不符合进化心理学和道德心理学对人类道德个性的形成和发展的理解;更麻烦的是,哈贝马斯的论证中包含了一个悖论,即如果基因决定论是对的,那么“不管我们的基因是大自然在人类演化历程中给予我们的,还是我们用这种‘人为设计’的方式给予人类后代的,我们或我们的后代都不可能具有自主性。如果基因用一种单向的方式决定了人类行为,那么所谓‘设计后代’与自然选择的差别仅仅在于:在前一种情形中,基因对于人类行为的决定作用是通过一种人为的力量而得以发挥的,而在后一种情形中,是通过一种自然的力量而得以发挥的”。与此相应,王凌皞提出了一种殊途同归的批评路径,这一批评路径是建立在对自然的规范性理解之上的。他也认为哈贝马斯的这个论证是失败的,失败之处在于反对基因改进的理由所设定的标准是不合理的,即他们所捍卫的“好”是社会或文化建构意义上的,而不是自然意义上的;他认为,只有后者才是合理的标准。照此标准,对人类的某些生物学性状的改进是完全符合人性的。同时,王凌皞也认为,“基因改进将会改变人性”有一个显而易见的困难,即它预设了单线条的“基因决定论”。
以上述理由为基础,徐向东发展出了一种较低版本的自由意志相容论的理解模式:基因工程可以应用于人体,并在一定程度上决定我们的行为倾向,只要我们人类还未完全丧失自主的行为和决策能力;只要还有自我意识和自我反思的能力,自主性就仍是可能的。对此,徐向东总结认为:“自主性并不要求我们具有意志自由论意义上的自由意志,只要求我们具有批判性地审视和反思我们所具有的欲望或价值的能力。”这就表明,自由意志或自主性是一个开放性的、处于动态形成中的概念,而不是一个与决定论完全不兼容的概念;无论是诉诸人为的决定,还是诉诸自然的决定来反对自由意志,对于理解自主性或自由意志来说可能都是不恰当的。卡斯和艾略特(C. Elliott)反对基因技术的运用,认为这种运用对“本真”造成了威胁,这种被强化的能力难说是个人的成就,而且这种能力是通过改变真实自我的方式来消极地实现一个人的价值和计划。这种观点难以成立,或者说其立论基础并不牢固。一方面,在生物学的意义上我们无法确当地认为,基因增强所取得的成就不再是个人的;另一方面,“真实自我”的概念不是先定的,真实自我在很大程度上还是取决于我们对各种能力的运用以及自我进行的创造。
可见,基因编辑(尤其是增强型的基因编辑)是否在内在的意义上摧毁了人类的自由意志是一个复杂的问题,而不是像我们在直观上所理解的那样。基因编辑与自由意志的关系既依赖于科学,也依赖于伦理的研究进展,而不能匆忙地下结论。无论如何,人性或本真的自我是一个等待着被塑造的存在,它不是由哪一个单一的因素所决定的。这正如丹尼尔斯(Norman Daniels)从生物实验结论中所得出的一般性认识,即一种生物的本性并不在于对其关键特征的遗传学贡献,基因与环境都贡献于而非单独构成了这一本性;也就是说,这一本性既不是仅源于基因的也不是仅源于环境的,而是受二者的影响和塑造。总之,我们每个人的生活都有一个开放的空间,每个人过自己生活的伦理要求是一个复杂的互动的结果。在这一过程中,并不存在一个先在的本真的自我,而需要我们的道德实践不断地向这一本真自我回归。
三、外在挑战:人工智能装置改变自由意志了吗?
这里所谓的“人工智能装置”并不是指强人工智能体,而是指人的自由意志在工具意义上的延伸,比如全自动驾驶、人工智能诊疗系统、高度依赖人工智能的医疗手段等,这是人工智能在当代社会极具现实可能性的运用。从理论和实践上来说,诊疗系统等并不会对自由意志构成根本挑战,用韩水法的话来说就是,这一类系统只是人的自由意志的外在、延时、多点多次、重复的执行。也就是说,这种所谓的“挑战”完全可以在现有法律的规范内解决掉,或通过专门的立法来规制行为或分配责任,比如自动驾驶汽车侵权的责任分配。但是有一些人工智能产品作用于人体时,却可以产生对自由意志的根本挑战,这是需要我们积极面对的。但无论如何,这种挑战是一种技术意义上的具有现实性的、带有根本性质的挑战,而不像增强型基因编辑或强人工智能体那样,可能会对自由意志带来颠覆性挑战。因此,无论这一挑战有多强,它在性质上都达不到强人工智能体对自由意志的挑战,因为后者涉及到人工智能体本身是否能够具有自由意志从而成为法律上的完全主体。本部分并非本文的论证重点,只作简要的论述。
在疾病治疗中,药物或一些人工医疗装置可能都会对人的自主判断能力产生比较大的影响。有些药物会对人的判断产生短暂的影响,有的甚至还会对人的自由意志造成不可逆的长久伤害。比如普通的感冒药在说明书中会列明服药期间不要驾车或从事高空作业,因为药物可能会导致人的自主判断能力下降。人工医疗装置对人的自由意志的影响可能会更大,但其与责任的关系并未引起足够的重视。不仅像脑起搏器或植入人脑的生物芯片那样的直接作用于人脑的医疗辅助手段,而且像人工耳蜗(artificial cochlear)那样的“义器”,都可能对自由意志产生较大影响。人工耳蜗的工作原理和人类自然听觉系统是不一样的,前者是一种电子装置,会将声音转化为电信号并进行一定形式的编码,通过植入人体的电极直接刺激听神经,从而改善或重建人的听觉功能。韩水法认为,这可能会影响人的自由意志,因为人类自然耳蜗约有160000个精巧毛细胞,人工耳蜗最多有22个电极,这样外界的声音信息被极大地简约化,无疑会改变自由意志赖以作出决定的知识的性质。这一担忧是有道理的,因为我们对自由意志的假设是建立在人的生物基础之上的,而人工耳蜗传递给人的生物信息是不完整的,甚至是不一样的,建立在这一判断之上的决定还是出于自由意志的决定吗?
人工耳蜗和脑起搏器的技术根基都是对人的神经系统进行电刺激,属于脑—机接口(brain-computer interface, BCI)技术的一部分,即由外在设备向人脑输入信息。在这一领域,最值得关注的发展是反向的,即通过脑信号来操作外在设备。2018年的《自然医学》(Nature Medicine)报道过一项研究,脊髓损伤(SCI)会导致脊髓感觉运动网络与大脑功能性断开,科学家通过硬膜外电刺激(EES)促进了瘫痪患者恢复强健、协调的运动;该研究报告了一个下肢感觉完全瘫痪的临床病例,EES在辅助设备下帮助病人恢复了站立能力和控制步态活动的能力。硬膜外电刺激技术能填补受损脊髓的缝隙,将中断的神经信息传导能力恢复过来,重新(尽管是有限度地)将神经信息从大脑传输到脊柱。显而易见的是,这一技术是基于对人脑神经信息的某种程度的破译来实现的,但并未向人脑输入更多的信息,基本上属于恢复治疗型。
随着技术的发展,接下来有两个问题值得进一步关注:一是诸如人工耳蜗那样的刺激系统对自然神经系统的还原在多大程度是接近自然的;二是随着技术的突破,科学伦理和法律是否应该允许通过人工的方式对大脑神经信息进行更多控制。显然,后一个问题和自由意志紧密相关,对此韩水法指出,如果向人脑输入印象和观念等更为复杂的信息,那么人的自由意志就会受到直接、稳定和明显的影响。于是,他进一步提出两个相关的重要问题:一是类似EES这样的系统由于技术或质量原因致使神经信号失准从而导致人的错误行为(或需承担责任),这对自由意志的归责是否需要降低;二是即使没有发生上面所说的技术或质量故障,那么在一般意义上能否说,行为主体因使用了这个系统可以不用承担相应的法律责任或道德责任,因其自由意志经由这个系统而被削弱了。这个问题确实是可能存在的,尽管现在技术没有发展到普遍使用的阶段,还只是停留在试验或临床研究上。
现在,EES系统基本还停留在治疗阶段,尽管这一治疗有可能改变人的自由意志。随着EES等技术的成熟和普及,其对人的自由意志可能造成的影响也会日益突出,法律责任和道德责任的难题也会随之突显出来。而且随着技术的更进一步发展,广义上的脑机技术有可能超越治疗的层面,进而发展到人体增强的层面。这就是脑机技术的比较高阶的阶段,即实现了人脑与信息的双向交流,这意味着脑科学已经发展到对人脑神经系统的完全破译。人脑可以对外操作设备,同时也实现了从外界向人脑信息的输入,这有可能会在根本上改变人的自由意志。伦理和法律需要考虑的是对人的自由意志的不合理改变,因此,在风险预防的意义上,我们也许应该事先禁止这一类技术的运用,尤其是要防止人工智能通过脑机结合来实现对人的完全控制,这种控制意味着人的自由意志的消失。这样的人已经完全被工具化了,不再有承担责任的问题。
人工智能在工具意义上的合理使用对自由意志和责任造成了外在挑战,这些挑战是合理使用(比如出于医疗目的)的外部性效果。各种人工智能系统或装置只要在科学的意义被认为对人的自主判断能力产生了影响,就可以考虑减轻或免除相应的责任,这一点似乎并不存在太多的伦理或法律争议。毕竟这一挑战的技术性更强,接下来本文讨论一个最为困难的问题,即强人工智能体是否可以具有独立的自由意志,从而成为法律主体,负起完全的责任。
四、终极挑战:强人工智能体能拥有自由意志吗?
目前,有一些学者认为人工智能体可以具有法律上的人格并可以独立承担法律责任,其中一个很重要的论证方向就是人工智能可以拥有自由意志。彭诚信等提出了一个有意义的、与自由意志有关的法律主体判断标准,即人工智能体能否自主地摆脱既有算法的约束,若人工智能体仍完全受制于既有算法的束缚,那就没有意志能力,也就不能被赋予独立的法律人格。他们在探讨人工智能体成为法律主体的相关标准,但也比较明确地指出,赋予强人工智能体以完全的法律人格在将来是有可能的,当然这应受限于为人类的福祉服务。刑法学者刘宪权是主张强人工智能应当成为刑事责任主体的主要代表,他认为,强人工智能可以超出人类的控制,并在自主意识和意志的支配下独立决策;在这种情况下,就应当追究实施严重危害社会行为的强人工智能体的刑事责任。库尔基(Visa AJ Kurki)基于上述类似的论证策略也指出,人工智能的责任问题与其自主性或自由意志有关。这需要区分两种情形:一是人工智能的行为已完全被编程所决定了,这样就可以直接归责为人工智能的编程人员或所有者;二是人工智能要是能够作为一个可独立学习行为模式的神经网络来发挥作用,就有可能以自身的名义承担责任。库尔基自己是主张人工智能在某种情况下可以成为法律主体的,他认为上述第一种情形高估了程序员预测人工智能行为的能力,有些人工智能可能具有自由意志而承担责任,从而适用法律制裁。他指出:“即使这样的实体不能以某种厚的、道德的责任感来担责,惩罚的威慑原理也肯定适用于它们。我们正在想象的人工智能类型是目标导向的、有意图的存在者(goal-directed, intentional beings),可以考虑进行法律制裁。”
正如库尔基所说的那样,上述论证基本都是基于“想象的”,他们并未对自由意志本身作出更为深入的讨论,只是基于对科技发展的一种展望,就认为这样的强人工智能体是可能出现的。但也有研究直面问题本身。论证人工智能可以成为责任主体,有很多种路径,学者们也进行了各方面的辩护。辩护强人工智能体可以具有法律人格并承担责任,自由意志是最大的障碍。这些不同的论述可以分为两种相反的路径:一是取消(甚至在自然科学的意义上消解)自由意志这个概念的可能性,即取消一种责任的形而上学基础,因为脑科学逐渐在证伪自由意志这个假设,从而在刑法学上建立一种中立的、去形而上学的、仅以他行为可能性作为个人可谴责性的标准。二是扩大对自由意志的理解范围,在最新的量子力学进展上,现代泛心论能够辩护合成物粒子含有自由意志属性,这样人工智能体一样可以拥有刑法评价意义上的自由意志,从而成为刑事主体。正如前文所述,自由意志构成了归责的基础,我们不应为了让人工智能承担责任,就放弃这一概念。它不仅是一个假设,也与人类尊严紧密相关。第二种路径在科学的意义上探讨了对自由意志这个概念进行扩大理解的可能性,提供了一个尽管还比较简略但确实有益的辩护方向。
这是一个开放性的问题,最起码目前来看,我们只是不能否定强人工智能体拥有自由意志的可能性,但是肯定说也面临着巨大的技术、道德与法律难题。第一,科学对自由意志本身的了解还处于比较初级的阶段,没有深入的了解就不能进行程序化的建模,更麻烦的是,自由意志就其本身的性质来说是否适于建模也不无疑问;第二,建立在自由意志基础上的归责的核心在于“主体”具有回应理由的能力,不仅目前人工智能的发展与这一能力相距甚远,而且现有的技术路线也许正在往相反的道路上走。下文依次讨论这两个重要的问题。
受限于脑科学的缓慢进展,我们现在对人类思维的具体生物学过程还不能完全地把握,法哲学学者希玛(Kenneth Einar Himma)特别指出了自由意志本身的复杂难解会造成人工智能体成为道德行动者所面临的巨大技术难题,“人工自由意志”提出了各种挑战:“为了使一个人工实体能够作出‘自由的’选择,将需要开发什么样的技术还不完全清楚,这在某种程度上是因为我们的选择在什么意义上是自由的还不完全清楚。自由意志造成了极大的哲学困难,在解决技术之前就必须先解决这些难题;如果我们不知道什么是自由意志,我们就无法从技术上对它进行建模。”即使我们可以建模了,所建构的东西还是不是自由意志也是存在疑问的。比如黄裕生认为,在人类的三种能力中,感性能力和理智能力都已为机器所拥有,而唯有意志能力机器则永远无法拥有。自由意志则为最高级的意志能力,能使人类突破一切程序,这使得自由意志无法赋予机器,因为二者之间存在一个悖论:“如果人们要把自由意志赋予机器人,就必须能够把自由意志程序化,也即能够用程序把自由意志写出来;但是,自由意志恰恰是不可被程序化的,否则它就不是自由意志。”这似乎表明,自由意志就其性质而言是不可程序化的;而更深层的理据则可能是,自由意志所内涵的理由回应性是机器无法模拟的。
无论是对法律责任还是对道德责任来说,让行动者对其行为负责,就是要在二者之间建立一种联系。但是二者之间并不是一种单纯的因果联系,这包含两个方面:一是行动者有自主判断能力;二是行动者是在人与人之间的社会关系中行为。他不是在一般意义上作一种因果性判断,而是一种规范性判断。就责任而言,在人的认知能力中最重要的是具有理性反思能力。这也包括两个方面,一是具有理解回应性态度及其包含的规范性理由的能力,二是行动者具有依据上述理解改变既有认知和行为模式的能力。一言以蔽之,就是行动者对理由的回应能力。在解释上文第一部分所提到的自由意志的控制力方面,有一种关于自由意志的理解恰恰赋予了理由以重要意义,这就是费希尔(John Martin Fischer)和拉维扎(Mark Ravizza)所提出的理由回应(reasons-responsiveness)观。他们把责任所需要的控制称为指引性控制,一个给定行动的指引性控制是根据行动据以进行的机制或过程来描述其特征的,这个机制是行动者自己的,且必定是理由回应的。理由回应性包括接受性和反应性,接受性指行动者对理由的承认,反应性指根据承认的理由来行动。接受性是一个认知条件,即“辨别出各种理由怎样组合在一起,明白一个理由为什么比另一个更强,并理解把一个理由接受为充分的,就蕴涵着一个更强的理由也必定是充分的”。反应性是一个更弱的要求,行动者可以以其他方式行动;但行动者承认了道德理由却坚决拒绝按这些理由来行动则是可谴责的,要负道德责任。
现在类似于AlphaGo的人工智能具有强大的自我学习能力,其作出的选择并不完全是事先被设定好的。但是,这种自我学习的回应能力仍是局限于特定的领域或任务的,比如下棋。因为它们都使用了蒙地卡罗树搜索(Monte Carlo Tree Search,简写MCTS)的演算法,这种进路的人工智能产品只是依赖于演算法在“下棋”。或者说,我们认为AlphaGo在下棋,对于AlphaGo本身来说,只是在做演算而已。哈特认为,任何游戏都不是简单的命令/服从关系,而是在从事一项目的性活动。人工智能显然不会意识到自己在从事一项有目的性的活动,因为人工智能没有社会性,也没有社会规则的意识。借用哈特的术语来说,人工智能没有内在观点。颜厥安认为,这意味着人工智能没有办法或能力透过了解来接受一套社会规则,来形成对规则之规范性(normativity)的认知。规范性是与理由紧密关联的,于是,颜厥安得出一个结论:“规范性是参与者必须了解的理由(reason being understood by participator)。演算法,至少以前面所提到的,奠基在MCTS上的模式,并没有了解能力。因此这种不具备规范性了解能力的人工智能,当然也无法成为权利主体,或具备责任能力。”
从上述对自由意志的理解中,我们可以看到斯特劳森对归责的理解模式,即责任是一种反应性态度。只是费希尔和拉维扎用“理由回应性”概念就自由意志中的控制问题进行了更为详尽的探讨,这一理解模式对于我们讨论强人工智能体的自由意志问题具有重要的启发意义。从中我们可以看到,自由意志或承担责任所涉及到的不是一般意义上的认识问题,而是对理由的回应问题,这包含着复杂的理由认识、判断、理解以及按照理由来行动的能力。在所有的生命形式中,这种能力一般被认为专属于人的;正如帕菲特所说,人类作为一种生命形式,其独特性就在于能够理解和回应理由,这些能力赋予了我们知识以及控制未来生活的能力。当然,人工智能也有可能发展到并不作为执行工具的程度,只要人工智能的自我学习能力达到理解回应性态度和规范性理由的程度,我们就有可能认为这样的人工智能和人一样是独立主体,能够具备责任能力。这就是通用人工智能的阶段,而亚姆波尔斯基(Roman V. Yampolskiy)认为这种研究是不合伦理的。因为通用人工智能有可能使人性无用,人类灭绝。这种可能会导致人类毁灭的研究当然是不合伦理的,因为我们现在关于伦理的理解还是以人为中心的,离开了对人或人类福祉的关注,也就没有了所谓的伦理问题;或者,我们需要再创造出一种新的伦理形式,当然我们也可能没有这个机会了。
这种担忧是普遍的,也是可理解的,但是哲学家与当今活跃在一线的人工智能专家似乎并不认可这种担忧。金观涛在考察了人工智能发展史之后认为:“人类智能不同于生物本能之处在于,人不仅具备选择的能力,还具备创造符号以及利用符号系统把握世界,并赋予世界意义的能力。”这个概括深刻揭示了真正的人工智能的关键在于创造符号系统,并赋予世界意义的能力,而这一点至今在人工模拟方面没有进展。就此而言,说当前的人工智能热是对“智能”理解的一次大倒退是可以理解的。金观涛还进一步指出了智能本质的四个方面,其中之一就是人会意识到自己有自由意志,让意志指向某种符号系统,以创造一个应然世界。由此,我们对自由意志会产生一个全新的人文主义理解。金观涛认为,主体的自由是创造符号的前提,“人知道主体是自由的”是一种二阶思维,即对自由的自我意识,这就是自由意志。自由意志是一种内省变量,而不是因果性的,所以决定论是错的。于是,“人的自由意志不仅是社会意识的属性,还是对社会意识反思的产物”。斯坦福大学人工智能领域的著名科学家李飞飞在接受一次访谈时认为,人工智能还远未到达“终结者”的地位,尤其在视觉识别领域,还有很长的路要走。人类主要通过视觉来获取信息,视觉占到了70%,听觉占到了20%,其他的感觉加在一起才占到10%。眼睛只是窗口,主机在大脑,50%的大脑皮层在作计算以处理视觉信息。由此可见视觉识别在人工智能领域中的重要程度,其中的关键就是通过视觉训练来发展人工智能的认识能力。
从后果上看,假如强人工智能体具有独立的自由意志或人格,那么这就意味着人工智能体能够不受人类设定的程序的控制而独立作出决策并自主行动,人工智慧进入自主的阶段。这也许正是麻烦和风险的开端而不是结束,因为既然存在两种不同性质的自由意志,那么这种自由意志将不再受现有法律的控制。于是,好的结果是,两类不同性质的自由意志能够友好协商,共同制定新的法律;不好的结果就是,人类的生存将面临风险。这是霍金一再告诫人们的可能结果,既不是科幻,也不是毫无理由的预言。在这种情况下,再讨论强人工智能体应负刑事责任已经没有意义了,因为拥有独立意志的人工智能体为什么要服从或遵守人类的刑法呢?所以,有学者认为,不受人类控制、自主进化的未来人工智能系统极可能不具备成立犯罪的主观条件,不可能接受刑法的规制,我们更需要做的是怎样去规避风险;因此与流行的结论相反,刑法更应当在防控人类智能应用的社会风险中发挥重要作用,对人工智能研发、应用各环节进行安全控制,确保人工智能发展服务于人类社会。
五、人工智能时代的法律责任变革
现在法律责任的认定基本上是以行动的控制力为基础的,即使行动者只对自己能够掌控的行为负责任;在制度设计上,这体现为过错责任原则。还有一些责任类型注重公平和赔偿的功能,不以控制力为前提,这是人为的制度设计,也是法律责任的优点。社会因素(如家庭出身、贫富差距等)不会成为减轻或免除责任的依据;病理意义上的因素(如精神障碍等)、外在强制等各种客观因素导致的判断力下降或缺失会对责任产生影响,但主观因素(比如醉酒)不在此列;物理意义上的决定论考量,比如人的主观意志完全受物理定律的支配,根本不在减轻或免除责任的考虑范围内。由此可以看出,法律责任更多偏重于意志自由论的看法,即纯粹依据以自主决定为基础的控制力来分配责任和负担。在传统的法律责任归责中,决定论因素存而不论,不在法律归责的考量范围内。但上文所述人工智能时代的另一种类型的外在决定因素已经挑战了传统的法律归责理论,这些挑战不是通过改变现有法律概念的涵括范围或进行目的性扩张解释所能解决的,因为这些挑战有可能或已经在根本上冲击了责任承担主体的存在方式和存在性质,这就是从生物人到合成人或新型“主体”的转变。
韩水法认为,基因工程和医疗性人工装置的运用造成了一种不同于自然人的“合成人”或“复合人”,这种合成人改变了人的存在方式,并瓦解了自由意志的基础,这种瓦解源自合成人在人格独立上的非同一性。在人工智能时代,人的学习方式、记忆方式和经验获取方式都发生了变化,以记忆为基础的个人主观认同不再是唯一的,而是有多个来源;个人就不再具有唯一的人格或身份,于是“一个生物的或合成的个体拥有多个个人认同,因为他/她可以更换多种不同的记忆集,而多个生物的或合成的个体也可以拥有同一个认同,因为他们可以分享同一个记忆集”。确实,我们对自由意志的现有理解来自于启蒙时代,带有强烈的人文主义气息。那时对人的理解和对人的经验感知与现在这个时代是不同的,个人的自由意志是人格独立以及一个人区别于其他人的标志。如果自由意志不再是个人感知经验的唯一方式,那么人的这种存在方式在什么意义上还是自由的?这确实在深层次上说明了,在人工智能时代,人的存在方式的变化会影响到我们对人的自由意志的理解,并进而影响到法律责任承担方式的变化。依据这种影响程度的不同,法律责任在制度设计上也应当减轻或免除所应承担的不利后果,至于增强型基因编辑或强人工智能体的责任问题,可留待进一步的研究。
针对传统的决定论,柯柏(Adam J. Kolber)提出了一个“减轻责任”反应(“reduced responsibility” reaction)的概念;柯柏主要认为,这个观点体现了对传统决定论的看法。但这个看法其实也适合本文所讨论的决定论,因为他所提到的寄生虫感染不同于物理或生物规律,而是一种可理解的外在控制方式。柯柏指出:“为什么被寄生虫感染大脑的那些人似乎负不完全责任,以下是一个可能的解释:我们对一个人行为的‘机械论的’原因——一个人的行动由粒子运动或突触的触发(等等)所框定的那些原因——所知越多,我们就越不倾向于使之负全责。我称之为‘减轻责任’反应。关于机械论因果关系的知识经常削弱我们的如下直觉,即一个人是负有责任的,即使机械论原因无关于传统的宽恕条件,比如胁迫或精神错乱。”其实被寄生虫感染的责任问题与粒子运动或神经元突触的触发所引发的责任问题还是有区别的,柯柏在随后的论述中也认为,只要感染寄生虫还能使一个人保持推理的能力、依据价值做决定的能力,或满足相容论的其他标准,就应当负有责任。外在的决定性因素也无关传统的宽恕条件,依据“减轻责任”反应,也应当减轻或免除相关行为的责任。
于是我们可以总结认为,无论是基因编辑还是医疗性人工装置都在两种意义上导致了对自由意志的总体挑战:一是外在决定性因素的挑战,意志不再是完全自由的;二是多种身份认同的挑战,个人人格不再是完全独立的,身份不再是唯一的,因此意志也不再是完全自由的。但是,这两种挑战都不能说完全颠覆了传统的自由意志理论及相关的法律责任设计。这是因为,一方面,治疗型基因编辑是被普遍接受的,它只是使人的自由意志恢复到一个正常的水平,而增强型基因编辑技术对自由意志的冲击则存在着理论上的争议,它是否颠覆了对责任的理解目前还没有定论;另一方面,医疗性人工装置的挑战基本上没有动摇自由意志的地位,也没有动摇法律规范的地位,在法律上回应这一挑战相对比较容易。而作为新型主体的强人工智能则有可能构成对自由意志的终极挑战,但目前看还有很长的路要走。总之,这里面既存在着挑战,也包含了风险。增强型的基因编辑和通用人工智能都被认为是存在风险的,很多国家也禁止进行这样的实验。
六、结语
以基因编辑为代表的基因工程技术、医疗性人工装置技术和人工智能技术构成了对自由意志的总体挑战,而自由意志是归责的基础,对法律责任的认定影响甚大。这些挑战多数是根本性的,而不是工具性的;因为它们不是自由意志的自然延伸,而是内在地参与了自由意志的形成。这些挑战在法哲学上可以分为两个方面:一是现实挑战,即以基因工程和弱人工智能为代表的新兴科技引发了人类在自由意志方面的争议,最起码对人是否要承担法律责任产生了困扰;二是终极挑战,即强人工智能体被认为具有和人一样的自由意志,能够成为法律主体,从而承担完全的法律责任。这两类挑战,或者指向人类生物基础的自然性,而这种自然性尽管不为我们所完全掌握,但构成了法律上自由意志假设的最深刻的基础;或者指向人类作为唯一理性存在者的地位,从而创造出一种有别于人类的新型自由意志存在者。在这些挑战中,现实的部分构成了承担道德或法律责任的新的“宽恕”条件,可以适当减轻或免除不利后果;而未来的部分也值得认真对待,因为自由意志不仅关乎责任,也关乎人性尊严。因此,法律在回应挑战的同时,也应注意风险防范,并不是所有的挑战都应被允许,毕竟人类福祉本身才是科技发展的边际约束。