摘 要: “机器人也是人”直接挑战了人本身,它突破了实在法律条文的讨论限度而进入法理学范围。以算法为本质的“深度学习”和“神经网络”使得智能机器人具有较强的形式理性,从而不再仅仅作为一个客体存在;它有成为非完全主体或独立主体的可能性。对于智能机器人未来会引发的诸多问题,Weaver所构想的“资金池方案”以及流行的法律主体方案所提供的解决路径都不完全,从而一旦遭遇其中的实质性问题部分就将失去效力。法理学在回答“机器人也是人”时,要进一步反观“人”意味着什么,从而确立讨论的前提、基础和判准。
关键词: 智能机器人; 算法; 神经网络; 资金池方案; 法律主体;
引言
人工智能(Artificial Intelligence,AI)已不再只是一个技术问题,而越来越紧密地表现为一个法学问题,尤其是法理学问题。法律作为社会控制的主导方式,其功能就在于“以各种各样的方式来指引、计划和控制我们的生活。”1然而问题在于,现有的法律已经远远不足于解决人工智能领域逐渐提出的诸多新问题。尽管在“弱人工智能”层面,部门法学者或法教义学学者仍可通过相关讨论———如扩张解释———来予以回应,但对于“强人工智能(以下称作“强AI”)”,他们则很难提供切实可行的解决策略,因为部门法条文所能允许的射程范围会限制他们的进一步讨论。这即是说,部门法所提供的说明性理论(explanatory theory)难以解决由此涌现的规范问题,所以当问题一旦超过“实在法”所能允许讨论的最大限度,法学理论就有登场的必要。其中,“机器人也是人”代表了人工智能以及智能机器人与人之间关系的前沿理论和态度,它基于“强AI”(乃至是“智慧AI”2)的未来发展来论证其可行性,并从法律角度出发直接对人与智能机器人之间的实质性关系发起挑战。3“机器人也是人”这一立场和观念能在多大程度上被证成或证伪,这首先得通过对其技术前提和理论构想的考察才能得到说明。
一、技术逻辑及其批判性考察
强AI是“机器人也是人”的讨论前提。与通过逻辑推理、定理证明、问题求解、自然语言系统以及专家系统来“模拟人或动物智能解决各种问题的技术”4的弱人工智能相比,它的“强”表现在它所具有的自我意识、自主学习、自主角色等“高级能力”。而且,相较于弱人工智能在给定的基础目标前提下、通过智能进行求解的模式,它还具有自我设定目标的能力。此外,由于“黑箱(black box)”系统5的存在,使得连程序设计者自身都无法确切地理解自己设计出来的人工智能的具体决策过程,这无疑会进一步加强“机器人也是人”的说服力。具体而言,论证“机器人也是人”主要是基于深度学习与神经网络的未来发展图景而进行的,二者都以算法为本质。
1. 技术逻辑的基础:“深度学习”与“神经网络”
“智能”的最基础面向是“学习”,但与一般的学习不同,“深度学习”是建立在大数据分析、云计算以及神经网络的基础之上的,这便使得智能机器人具有极强的分析和解决问题,以及适应环境的能力。它可以不依赖程序开发专家的头脑,而“自动从已有的实验数据中总结规律”6,并依靠所总结的规律作出下一个决定和行为。“深度学习”意欲达致的目标在于,通过对数据的高效处理、对不同知识的智能学习,从而有效地解决复杂的智能问题。7它通过超越传统意义上的“训练算法”,而向“人”发起了实质性的挑战———尽管当下的相关研究仍处在初级阶段。正是因为这种人机交互或人机结合已经不再停留于简单的“输入—输出”,从而使得传统意义上简单的“人机二元”区分的界限已开始模糊化;它同时还会使“什么是人”和“人的特质是什么”这些问题的答案慢慢变得模糊。8
与深度学习紧密相关的是“神经网络”,它是“深度学习”隐而不显的隐藏层。9人工智能向“神经网络”的纵深研究,其间隐含的一个基本假设是,智能及其思想意识本身均源于大脑的复杂性。10依据氨基酸决定蛋白质的结构,基因决定细胞的命运,就可以得出“神经元决定了思想”的结论11;从而在具体研究中,它通过“虚拟神经元”进行人脑模拟并在此基础上构建虚拟的“人工大脑”。基于对人之大脑的心智模拟,AI程序就能够实现像人类一样的认知和思考,达到甚至是超过人的智能水平。12可以想象:在此种情况下,如若再设计一副仿真人类“皮囊”,那它可能会比“人”更像人。
2. 批判性考察:技术逻辑能否成立?
通过“深度学习”所开放出来的技术逻辑的第一个维度是:自然人与机器人的区别存在于能力方面。因此,一旦智能机器人的发展足以达到这种能力水平时,它就有享受自然人的“资格”。基于此,在回应以强AI为基础的“机器人也是人”的挑战时,首要的问题是解决“能力”在多大程度上会对人构成实质性威胁?
通过对上述技术逻辑予以进一步分析,我们会发现它潜在且有效地运用了“理性”概念,即“机器人也是人”之技术逻辑是建立在理性之上的(“理性能力”而非物理能力)。作为“深度学习”和“神经网络”之本质的“算法”使得智能机器人具有讨论“理性”的前提和空间。从某种程度上讲,理性的确可以被视作是一种能力,包括实质理性和形式理性两个方面,而作为技术逻辑之基础的“理性”主要指的是形式理性。应该说,这一论证逻辑具有很强的说服力,因为形式理性的最佳表达就是数学思维,而现代法治得以实现的基础之一就在于形式理性。13这无疑是对以算法为基础的技术逻辑的佐证,但以形式理性来论证“机器人也是人”的正当性会遭遇一个法理上的悖论,即“能力越强就越有做人的资格吗”。智能机器人被设计出来是为了更好地满足人之需要的,但技术的发展却使得原本的自然人反倒不如机器人,这会逐步陷入黑格尔所说的“主奴辩证法”的困境。
更重要的在于,这一论证在逻辑学理上并未深入到实质理性层面。即便从数理逻辑维度来看,智能机器人的确可以像人一样具备形式理性,乃至是拥有比人更强、更高深的形式理性;但它在多大程度上具有实质理性,还不得而知。14就现有情况来看,科学界的可能方案是通过“神经网络”来提供实质理性方面的理由,这一理由在大的范围上归属于“主体性”范畴,这是技术逻辑的第二个维度。主体性概念直接指向人的内在实质方面,主要指自主性、主位性、选择性以及创造性等内容。15这一技术逻辑试图解决的问题是,如何让智能机器人具有主体性意义上的主动性。不管实际技术的最终发展能否予以突破,就理论的基本设定来看,它的可能性显得微乎其微———至少在可见的技术发展上,这一论证还欠缺讨论的基础。原因在于,具有主动性的基本前提是具有意识能力;就现有材料来看,智能机器人依靠传感器、模拟认知的计算能力以及驱动器而获得的感知、思考,从而获得的自主性是无法通过意识概念的核心检验的。16而且,“意识”概念也并不仅仅为了表明自身能力所能达到何种高级或智能化的程度,而关心意识与物质之间相符合和反映的程度。因此我们无法想象,在学界连自然人自身之意识的发生和运行机制还未得到完全解答的前提下,程序设计者又依靠什么来设计意识程序、从而使智能机器人具有意识和“主体性”。
算法是智能机器人的内在规定性,是其“律法”17。以算法为基础的形式理性遵从的是一套演绎思维,是一种表达逻辑命题和逻辑关系的方式,它受限于哥德尔“不完备性定理”,没有“直觉”11;备有终极算法的智能机器人成为人的概率因此就为零。18基于此,不管是“深度学习”还是“神经网络”都不太可能对此进行实质性突破;即便强AI具有自主性意义上的主体性,但执行程序始终是一个“绝对命令”。实质理性除了能进行演绎之外,还能为人提供知识上的增量以及进行伦理上的道德判断;而且实质理性还只是人类众多实质性内涵的维度之一。基于此,“机器人也是人”的技术论证似乎是无法成立的。
二、理论构想及其限度
对技术逻辑的批判性考察忽略了一个重要的方面,即我们对科技的未来发展无法进行完全的理性把握。因此,在假定智能机器人能够通过“深度学习”和“神经网络”或其它新的技术突破从正面证明自身成立之时,我们面临的又一个现实问题是:由机器人所引发的系列法律问题如何处理?如,侵权损害赔偿问题,刑事责任问题等。这一发问是从反向展开的,即如果该类问题无法像人一样地得到处理,那“机器人也是人”的论证是否有必要?实际上,《机器人也是人》一书的作者John F.Weaver的理论构想就是遵从这一路径而进行的积极说明。
1. John F.Weaver的理论构想
就侵权问题而言,现有的责任分配理论,如违约责任、侵权责任以及产品损害责任等将很难适用于智能机器人。因为在智能机器人正常运行的情况下,危害后果仍会发生,却不能归咎于任何一方主体的过失或故意。在此情形下,基于公共政策的考量——这一考量是有助于人工智能行业发展的———智能机器人就应自己承担责任。Weaver认为,只要满足以下两个条件,智能机器人就应对自己的行为承担责任:(1)由其自身引发损失或损害;以及(2)造成损失或损害的所有责任都不能归属于流通环节的某个或某几个主体。3在具体承担责任的方式上,他认为通过创设人工智能保险与储备金来保证足够的资金池,就能有效地解决责任分配的问题。3
其中,Weaver的理论构想有以下要点:第一,责任是一种分配关系,而且是一种形式意义上的;第二,通过金钱的补偿或赔偿就能够填平所有既已发生或可能发生的危害后果,这种危害后果当然地包括民事上的违约、侵权等,同时也包括和自然人相关的刑事责任问题;第三,在此情形下,智能机器人是作为完全性的法律主体而存在,他能对自己行为具有完全的权利能力和行为能力。
2. 理论构想的限度
Weaver的理论构想为相关问题提供了一套“切实可行”的解决方案。然而,或许正是因为他主要考虑的是方案的“切实可行”,从而把更深层次的问题忽略掉了。首先,不得不承认,责任理论在很大程度上是关于责任的分配问题。此时,智能机器人所承担的是一种严格责任,因为它实际上没有任何“故意”,更没有任何“过失”;只是因为公共政策的权衡,它成了替罪羊;当然,这并不是问题的根本。关键在于,它并没有考虑一种无法保证不会出现的情况,即智能机器人(过失/故意)致人死亡。Weaver没有明确讨论这一问题,但它实际上已暗含在危害后果产生后的金钱损害赔偿之中。基于此,我们可以推断:在Weaver的理论构想中,当智能机器人致人死亡的情形发生时,责任追究的最主要(唯一的?)方式是金钱方面的补偿/赔偿,只是针对危害后果的类型和程度多补多赔、少补少赔的问题;然而,即便我们接受这种“资金池方案”,但资金池一旦被耗尽或未能及时补足,又如何处理?Weaver并没有提及,似乎“资金池”是永不枯竭的。
针对这一问题,其实还有另一种解决方案,即审判智能机器人本身,并根据审判结果,对其施以或是管制等自由刑或是生命刑。比如,将其断电或将其砸毁。但我们马上会发现,其中会存在巨大的难题,即我们会接受这种把自然人和智能机器人进行同等对待的处理方式吗?这种处理有意义吗?是人之智力的胜利还是对人之尊严的羞辱?至少就现代性斗争所取得的人之主体性地位而言,这一点是无法被人们主动接受的。这不仅是Weaver理论构想的主要缺陷之一,而且也是“机器人也是人”这一立场所面临的最根本挑战之一,因为它直接挑战、触动了人本身。如果技术没有完全的能力倒逼人们对此予以接受,那这种解决办法几乎没有可能。
在针对智能机器人进行审判和执行刑罚时,不对等的情形会出现。就现有经验来看,机器人的产出方式决定了它是批量的,因而不存在真正的个性问题,而每一个自然人却都是独一无二的;它表现为人的不可替代性。当通过摧毁智能机器人来填平其致人死亡的责任时,这实际上不仅没有任何意义,而且会产生系列副作用,比如它会反噬人的存在本身;人类自身应是目的而不是手段,但这种处理方式却将机器人和自然人都拉低为一种手段或工具存在。当目的达到之时,工具就不再具有意义,从而是可以被废弃掉的。照此推论下去,自然人与自然人之间也会被拉低为工具与工具性的关系,而最终的后果可能是,包括法律系统在内的现有整个社会秩序会面临崩溃的危险,从而进入霍布斯所谓的人与人之间的狼与狼的自然状态。19
实际上,情况可能也不会那么糟,因为寻求人与智能机器人和谐共处的可能性并不是没有;但这种和谐相处的基本前提是,智能机器人是作为人之延伸的工具,即作为客体而不是主体存在的;不管它多强、多么与人没有差别,它都是服务于人本身的。智能机器人必定是从属性的,谈论其像人一样的独立性,这是无法想象的。如此一来,通过审判智能机器人并对其施予刑罚的方案就毫无意义。但我们又不得不承认,智能机器人所具有的特殊性使得它不同于一般意义上的客体,它是具有主体的相关要素的,因而单纯地将其视为客体也无法实际解决相关问题。在此,“法律主体方案”就涌现出来,这也是Weaver理论构想第三个方面的进一步展开。
三、法律主体方案:是否可行?
法律主体不是针对自然人的简单重复,而是基于自然人的一种抽象制度,甚至被认为是全部法律概念体系的核心。20自然人是当然的法律主体,但“法律主体”的概念却并不止于此。作为制度事实的法律在此可能会表现为一种“技艺方法”,它会在一定时期将“人”当作“非人”,如奴隶在古代法律中就不是人21;也可能在一定时期将“非人”当作“人”,如“法人”,它作为法律主体,享有人之集合体的法律人格。22在历史的很长时期里,哪些自然人能成为法律主体以及以怎样的方式成为法律主体,这已不再是一个法学问题,而是一个高度政治化的考虑和决断。但不得不承认,法律主体更多地是指“自然人”,至少最初的法律主体是由自然人充当的。23
自然人之能够具有权利资格、享有法律权利、履行法律义务,是基于“出生”这一事实24;这一事实天然地赋予自然人法律主体资格和法律人格。自然人法律主体的进一步展开,就是公民概念。25但其中有一个跳跃,即从生物性事实到法律事实。因此,我们就可以理解为什么当智能机器人“索菲亚”在被沙特阿拉伯授予国籍之后,她就成了“公民”并由此拥有了一般人所能够拥有的权利、义务和责任;从实在法角度来讲,只要满足法律所规定的要件,“公民”概念就是成立的,至于这些要件应当是什么,实在法条文本身是不再考虑的,而是立法问题。基于此,似乎完全有可能也有机会将智能机器人纳入法律主体的范畴之内。但也应当注意到,沙特阿拉伯的这种处理事实上是没有法理支撑的,不仅表现在它不被其他国家所接受,而且本身就被视作是“扯淡”26。因此,答案仍要在法律主体的法理正当性中去寻找。
就具体的操作方法来看,囿于智能机器人和自然人在质料上的巨大差别,所以将智能机器人视为法律主体的途径可以是基于法律拟制而进行的,而且是基于自觉创立而非自然演化的拟制形式。法律拟制是一种决断性的虚构27,比如智能机器人本来不是法律主体但将其视为法律主体。然而我们马上会发现,智能机器人的法律主体拟制与法人法律主体制度等既有法律拟制存在一个根本性的不同,从而它会削弱法律拟制方案的可行性。公司法人主体的拟制前提是,公司法人本来就不是人而且也没有任何机会成为人,从而需要法律拟制来将其视作法律主体,从而有助于解决对内对外的法律关系问题。智能机器人虽然本来不是人,但却是否就没有机会成为真正的人?如果强AI或智慧AI的未来发展证明它有机会,那么法律拟制反倒是用错了地方,即它不需要通过法律拟制来寻求自身的主体性质;在此前提下,问题会直接变为如何处理自然人与智能机器人之间的法律主体关系。可能的方案有:其一,二者都作为平行的法律关系主体,就如既有自然人之间的关系那样;其二,智能机器人作为一种从属的法律主体,从属于与之相对应的自然人法律主体。28
第一种方案在Weaver的理论构想中已被证明在实质性问题部分不可行,而且也不为人所接受。第二种方案主要是基于“无主体的法律难题”这一情形而设计的,从而首先是出于一种便利上的考虑;但这种设计是否能有效地处理智能机器人法律主体缺失而衍生出的问题,而不是引发更多的问题,还不得而知。但有一点是明确的,从属主体也是主体,它只是在归责问题上才回到自然人主体。以智能机器人作为权利义务的法律主体,却将责任归于自然人主体,这不禁让人质疑:难道人类发明智能机器人只是为了让自己承担责任?二者之间如何进行对接?大致看来,它并不会明显地减少可能出现的相关难题。而实际上,第二种法律主体方案在处理方式上和法人法律主体拟制制度没有根本性区别,但由于智能机器人并非只是纯粹的客体,所以该方案无法实际展开;因为按照法人制度中的“双罚制”,其最终的权利、义务和责任都是归结于自然人,智能机器人却打乱了这种设计,从而加剧了内在的分裂。
讨论至此,还有一个根本性的问题我们没有展开,即讨论“机器人也是人”这一命题时,我们必须对何谓“人”有明确的认知,否则就永远只是基于个人好恶的“意见”宣泄,而不是“知识”增量。其中,可能的思考策略是反观什么是人的本质规定性或不可或缺的特质。比如,情感是否是自然人所必不可少的一部分?如果不是,那以智能机器人无法进行情感的天然流露来反驳它不是人,这就是毫无意义的。29由此我们就可以明白,为什么Weaver的理论构想以及法律主体思路会出现各种各样不同程度的疑难和不适,其原因除了科技发展的未来不可预料之外,还在于我们对自然人本身的认识不够明确。如果既有世界是以“人类中心主义”构建起来的话,那么智能机器人的挑战一旦形成,那它就将是全方位的、根本性的,从而是可怕的,因为“存在的彻底技术化,或者是,技术将对任何存在进行重新规定。”30在此情形下,不是“机器人是人”,而是退回到“人是机器”。诸如此类的情形,都在倒逼我们思考一个古老的问题:“我是谁?”。虽然我们可能会通过“预防原则”31或者是“人类中心主义”32的底线操守来予以回应,但经由它所揭示的问题却是回避不了的。法理学应当重新思考“人”。
结语
人工智能的本质是算法,基于算法的“深度学习”和“神经网络”使智能机器人具有讨论理性以及意识的空间,智能机器人由此不再仅仅只是作为一个客体存在;随着科学技术的发展,它有发展到非完全主体或独立主体的可能。基于强AI的未来发展,“资金池方案”和智能机器人法律主体拟制方案有能够为智能机器人所引发的相关问题提供解决途径,但它们都存在着内在缺陷;这即是说,一旦遭遇智能机器人对人的实质性挑战时,它就会失去效力。囿于经验和视野的局限,在当下讨论面向未来的智能机器人问题,其讨论过程和结论肯定是不完全的。因此,不管是证成还是证伪这一系列的问题,现有的人工智能技术和相应理论都有待于进一步发展,相关讨论由此才有更扎实的基础。但由类似“机器人也是人”的立场和观念所开发出来的问题却是较为清晰的,它直接挑战的是“人”本身,包括人的定义、特质以及规定性等诸多方面的内容33;通过对人本身之价值予以进一步的研究和把握时,我们或许能够更好、更坚定地回应智能机器人所衍生出的系列关键问题,从而更好地安放智能机器人,同时也是更好地安放几个世纪以来所确立的人之至高无上的地位和尊严。
注释
1[英]哈特:《法律的概念》,许家馨、李冠宜译,法律出版社2011年版,第7页。
2新近关于人工智能的研究提出了“智慧型人工智能”的概念。埃隆·马克斯讲到,“智能机器人确实可以做很多事情,如果妥善管理,就能产生积极的结果,但如果未来发展为“智慧型”机器人,就不一定能让我们轻易控制了”。参见韦康博《智能机器人:从”深蓝“到Alpha Go》,人民邮电出版社2017年版,第193页。
3(20)(21)[美]John Frank Weaver:《机器人也是人》,郑志峰译,元照出版公司2018年版,第39、39、46-47页。
4莫宏伟:《强人工智能与弱人工智能的伦理问题思考》,《科学与社会》2018年第1期。
5“神经网络是‘黑箱’系统,也就是说,在我们的例子中,输入环节是透明的,输出也得到了理解。但两者之间发生的事情,没有人懂得。”参见[美]James Barrat:《我们最后的发明:人工智能与人类时代的终结》,闾佳译,电子工业出版社2016年版,第239页。
6邹蕾、张先锋:《人工智能及其发展运用》,《理论研究》2012年第2期。
7孙志远、鲁成详、史忠植、马刚:《深度学习研究与进展》,《计算机科学》2016年第2期。
8[美]John Jordan:《机器人与人》,刘宇驰译,中国人民大学出版社2018年版,第158页。
9程显毅、施佺:《深度学习与R语言》,机械工业出版社2017年版,第4页。
10[美]Piero Scaruffi:《人工智能的本质》,任莉译,人民邮电大学出版社2017年版,第23页。
11(18)[英]George Zarkadakis:《人类的终极命运》,陈朝译,中信出版社2017年版,第276、198页。
12陈自富:《强人工智能与超级智能:技术合理性及其批判》,《科学与文化》2016年第5期。
13魏建国:《形式理性、数字思维与现代法治的实现》,《学术论坛》2006年第8期。
14Catherine Nunez,Artificial Intelligence and Legal Ethics:Whether AI Lawyers Can Make Ethical Decisions,Tul.J Tech&Intell.Prop,2017,20,pp.189-204.
15殷鸣放:《人的主体性问题的思考》,《理论月刊》2009年第4期。
16George Bekey,Autonomous Robots:From Biological Inspiration to Implementation and Control,Cambridge,MA:MIT Press,2005,p.2.
17John Cheney-Lippold,We Are Data:Algorithms and the Making of Our Digital Selves,New York University,2017,p.32.
18[美]佩德罗·多明戈斯:《终极算法:机器学习和人工智能如何塑造世界》,黄芳萍译,电子工业出版社2017年版,第361页。
19霍布斯:《利维坦》,黎思复、黎延弼译,商务印书馆1985年版,第92-97页。
20龙卫球:《法律主体概念的基础性分析(上)》,《学术界》2000年第3期。
21[奥]凯尔森:《法与国家的一般理论》,沈宗灵译,中国大百科全书出版社1996年版,第107页。
22梁慧星:《民法总论》,法律出版社2017年版,第119页。
23胡玉鸿:《法律主体概念及其特性》,《法学研究》2008年第3期。
24《民法总则》第13条规定:“自然人从出生起到死亡时止,具有民事权利能力,依法享有民事权利,承担民事义务。”
25马洪:《法律上的人》,《上海财经大学学报》2000年第3期。
26参见谢玮:《网红机器人索菲亚何许“人”也》,《中国经济周刊》2018年第5期。
27卢鹏:《法律拟制正名》,《比较法研究》2005年第1期。
28张善根:《人工智能新型法律主体论》,载《“公法与治理”学术工作坊第10期论文集》2019年第3期。
29最近英国伦敦帝国理工学院的科学家首次确定了人类大脑中与智力相关的基因集群---M1和M3,其可能影响人的认知功能,包括记忆力、注意力、反应和推理能力。参见杨溟:《器人已不再是人功能的延伸》,《理论参考》2016年第8期。
30赵汀阳:《人工智能“革命”的“近忧”与“远虑”:一种伦理学和存在论的分析》,《哲学动态》2018年第4期。
31陈景辉:《扞卫预防原则:科技风险的法律姿态》,《华东政法大学学报》2018年第1期。
32马长山:《人工智能的社会风险及其法律规制》,《法律科学(西北政法大学学报)》2018年第6期。
33尤其是由未来量子技术所可能带来的对既有体系和文明的颠覆性影响。