摘 要: 无人作战对于人和机器两个要素的融合提出了巨大的挑战。一方面,无人作战独特的作战模式和作战环境对于自然人的能力素质构成严峻挑战,高度智能化的作战系统运行速度、海量的数据信息日益挑战人类的反应能力和决策能力,虚拟的、远程的、与现实战场隔绝的作战环境日益挑战人类的心理素质。另一方面,机器的高度智能化虽然有利于更好地发挥潜在的作战能力,但也不可避免地带来战争失控和道德沦丧的风险。破解人机两个维度的挑战,实现人与机器的深度融合,一方面要利用增强技术从物理、生理、心理三个层面加速提高人类的能力素质,另一方面是强化机器人的伦理安全设计,坚守人类对机器人的控制底线,规避机器人失控和战争“非人化”的道德风险。
关键词: 无人作战; 人工智能; 人机融合; 增强技术; 伦理设计;
Abstract: Unmanned operations pose a huge challenge to the integration of human and machine. On one hand, the unique operational mode and environment of unmanned operations present severe challenges to the abilities and capabilities of natural persons. The operational speed of highly intelligent operation systems and massive data information increasingly challenge the reaction and decision-making of human beings, and the virtual, remote and isolated operational environment greatly influences human psychological mentality. On the other hand, although the high intelligence of the machine is conducive to the better use of potential operational capabilities, it also inevitably brings the risk of incontrollable war and morality deterioration. To address the two-dimensional human-machine challenge and realize the deep human-machine integration, on one hand, we must use enhancement technology to accelerate improving human capabilities from physical, physiological, and psychological levels; on the other hand, we must strengthen the ethical safety design of robots, stick to the bottom line of human control over robots, and avoid the moral risks of pushing robot out of control and leading to “dehumanization” of war.
Keyword: unmanned operation; artificial intelligence; human-machine integration; enhancement technology; ethical design;
1 、引言
自“9·11”事件以来,伴随美国反恐战争在全球如火如荼地展开,智能化无人作战平台成为美军“定点清除”恐怖分子的主要手段。与之相对应,无人作战的人机结合问题也日益凸显,自然人的生理心理素质如何匹配高度智能化的机器人,人与机器两者之间如何实现深度融合,进而最大程度发挥作战系统的全部潜能,成为各国军事家共同关注的问题。美国前空军参谋长马克·威尔士指出:“莱特兄弟飞机的时代已经过去,我们正处在第二个阶段。在接下来的二十到三十年,无人机发展将是爆炸性的。可以激动地看到,我们的空军处在且必须处在领导地位,因为我们知道使用它们的最佳方式。创新就是一切。”[1]1本文揭示了无人作战对人机结合带来的现实挑战,并从人的机器化增强和机器的人化设计两个方面提出了应对挑战的可行进路。
2 、人机融合的挑战与风险
2.1 、军人生理和心理能力素质的挑战
军队战斗力的发挥有赖于人与武器的结合,在理想状态下,人与武器都能够充分发挥各自的优势,从而发挥“人-机”作战系统的最佳效能。当武器成为具有人工智能系统的机器人,人类能力素质层面固有的生理、心理劣势,就成为制约人与武器有机结合的短板弱项。
一方面,就生理层面而言,正如美军智能化作战专家阿诺·丘奇博士所言:“自然人的生理能力难以应对智能化作战所需的对海量数据的处理能力与决策速度。”[2]回顾历史,从1997年“深蓝”计算机击败国际象棋世界冠军卡斯帕洛夫,到2017年“阿尔法狗”围棋机器人击败职业围棋世界冠军柯洁,人工智能系统凭借深度学习技术,在某些方面具备了人类难以匹敌的数据处理能力。在军事智能化浪潮的冲击下,人类作为人工智能武器系统的关键操作员,自身的反应速度越来越难以匹配智能化战争模式下自主武器系统所需的运转速度,这直接威胁到人类作为战争主体的参与程度。新美国研究中心高级研究员保罗·沙瑞尔指出:“机器在特定的军事应用中可以比人类做得更好。当来袭的导弹具有更多的智能化特征时,这些有监督的自主防御武器将变得更加重要,而人类操作员的参与程度将会下降。”[3]366由此可见,在强调“首发制穴”和追求武器打击速度的信息化战场,受到生理条件限制的人类逐渐沦为作战系统中最弱的一环,人与武器相得益彰的结合模式愈发难以实现。
另一方面,就心理层面而言,智能化战争模式也给予作战人员在心理层面的新挑战。美国着名智库布鲁金斯学会高级研究员彼得·辛格在研究报告中指出:“在阿富汗战场,无人作战部队的作战精神压力远远高于其他作战部队。……他们具有更为明显的身心困顿和精疲力竭感。”[4]究其原因,这种特殊的心理压力主要来源于无人作战独特的作战方式。区别于传统战争的作战人员,无人机飞行员需要在虚拟作战环境下操控远在千里之外的作战平台,他们在密布屏幕、按钮和开关的环境下工作,通过远程静音视频遥控操作。这种独特的作战模式导致作战人员在感官上与现实战场的分离,进而逐渐引发精神上的分裂。
在心理层面,承担智能化作战任务的作战人员不仅要面对现实战场与虚拟战场分离的心理压力,而且要面对作战与日常生活之间频繁切换带来的额外心理压力。在美国内华达州无人机部队任职的马特·马丁中校坦言:“在这里,每天上下班就是上下战场,感觉完全不同。晚上6点到早上6点,你可能会先接孩子放学回家,然后路上顺便买点杂货,回家再做顿饭。但是,早上6点到晚上6点这段时间里,你又成了‘合法杀手’。”[5]长期经历这种通勤方式,令马特·马丁中校等一批无人机飞行员罹患精神分裂症。更值得注意的是,智能化作战平台的操控者能够在虚拟作战环境中感受到自己现实生活的场景。譬如,在执行定点清除恐怖分子的作战任务时,无人机飞行员需要长时间监控武装分子,从而能够看到大量恐怖分子与家人一起生活的日常场景,某些家庭生活的温情场景会对监控人员的心理产生微妙的变化,进而可能影响其执行任务的决心。正如美国心理学家埃尔南多·奥尔特加所指出的:“在某些特定的时刻,无人机飞行员看到的场景可能会让自己回忆起曾经做的一些类似的事情。当一种似曾相识的熟悉感涌上心头,可能导致飞行员在扣动武器系统开关的时候增加心理上的难度。”[6]
2.2 、机器人的“智能化”挑战
无人作战模式下,具备高度人工智能的机器人既是战争的工具,也可能成为战争的主体。当前,以美国、俄罗斯、以色列为代表的西方军事强国加速推动智能化自主武器系统的军备竞赛。对于智能化的机器人能否真正取代人类成为战争的主宰,当前学界存在不同的看法。技术乐观主义的观点认为,具有高度智能化水平的机器人比人类更适合成为未来战争的主体。美国乔治亚州立理工学院的罗纳德·阿金教授指出,机器人在战争中具有几项人类不可比拟的优势:不用考虑自身的人身安全;具有超卓的战场观察和监控能力;不受人类主观情绪和习惯模式的影响;具有更快的数据处理和战场决策速度;能够客观地遵循战争伦理原则[7]。
与之相对应,也有学者认为战场机器人存在失控的风险,因而对其未来前景持悲观态度。保罗·沙瑞尔指出:“这种自主武器在军事上具有重要的价值,同时也会带来潜在的风险,在这些场景下,一旦把任务赋予完全自主武器,如果它故障了,或遭到黑客侵入,或被操控攻击错误的目标,则不能及时将自主武器召回或中止任务。……考虑到这种完全自主武器使用的潜在风险,我们应该对其军事价值和风险进行仔细权衡。”[3]370由于完全自主的机器人可以独立进行战场决策,缺乏人类理性判断和规制,可能导致“意外战争”和“危机”“意外升级”的风险。
此外,以西班牙巴塞罗那大学的艾丽尔·古森兹维格等为代表的一些学者认为,智能化机器人也难以有效遵循战争的人道主义原则,进而可能加剧交战过程中违背人道的行为[8]。一方面,就遵守区分原则而言,机器人难以准确区分军人和平民,特别是难以判断穿着贫民服饰的恐怖分子,因而存在滥杀无辜的风险。加拿大多伦多大学的特罗·卡尔皮教授也指出,机器人很难正确识别对方军人的投降信号,因为感知传递投降信号存在极大的主观性,在当前弱人工智能时代机器人尚不具备鉴别投降信号发出的真伪[9]的能力。另一方面,就遵守相称原则而言,机器人虽然具有超出常人的数据运算和处理能力,但对于评估军事行为在道德层面的收益是否与其损失相称的问题时,机器人很难采取客观公正的算法应对复杂多边的道德评估场景。可以这样设想,一旦战争由冰冷的机器人来主宰,战争中机器人所犯下的罪行也没有人类需要为之承担责任,那么战争也必然毫无人性可言。
3 、人的机器化增强
相对于人工智能技术驱动作战机器人一日千里的发展,自然人在生理、心理层面的能力素质未能同步提升。为了解决军事智能化时代人与机器的融合问题,进一步提升体系作战能力,当前一个重要的思路就是利用增强技术提升人类的各项能力指标,使之适应和匹配智能化机器发展的需求。
首先是物理增强。物理层面的增强方式是人类趋向机器化增强最显而易见的方式。当前,世界军事强国主要尝试以加装“机器外骨骼”的方式来实现作战人员的体力倍增。早在2012年,为了解决阿富汗战场复杂地形环境给美军机动作战和后勤运输带来的挑战,美国陆军委托洛克希德·马丁公司测试研发“人体负重外骨骼”系统,用于提高美军士兵在高海拔山地环境的负重能力和运动能力。根据相关研发机构公布的文件显示,“人体负重外骨骼”系统由液压驱动,可以使士兵能够在任何地形环境中负载约91千克的重物,负载的重量通过外骨骼的靴子传递到地面,从而确保重量不会转移到士兵的身体上[10]。近年来,我国在物理增强技术领域也取得一定进展。2018年6月,在重庆举办的“第九届中国国际军民两用技术博览会”上重点展示的“外骨骼机器人特种装备”可为解放军指战员在高海拔地区执行各类军事任务提供技术装备支持[11]。
其次是生理增强。生物增强方式的一种重要手段,就是利用脑机接口、生物信息芯片等技术手段来强化作战人员的感知力、记忆力以及反应能力,以应对智能化作战中复杂巨系统、海量数据信息以及快速多变的特殊环境。自1970年代以来,DARPA就开始持续资助脑机接口领域的科学创新研究和技术开发,在利用脑机接口技术恢复作战人员的神经和行为功能以及改善作战人员训练效果和作战效能方面取得一些进展[12]。2011年,俄罗斯军方也发布了“2045计划”,提出加快攻克涉及“脑控”“仿脑”领域核心关键技术,其目的就是尝试从生物层面增强作战人员能力。
再次是心理增强。无人作战独特的作战环境和作战模式,容易使身处其中的作战人员产生焦虑障碍、精神分裂、自杀倾向等负面情绪和心理疾病。为了应对无人作战环境对于军人心理层面的新挑战,美国空军航天医学中心成立了专门的项目研究小组,对无人机飞行员及其技术支持人员所承受的心理压力展开专项调研。他们认为,要确保无人机飞行员在高强度的远程虚拟作战中规避现实生活环境的潜在影响,就必须使其具备类似狙击手的心理素质,即能够在经历单调冗长的等待后立即做出高水平的快速反应和精准决策。为此,美军一方面运用明尼苏达多项人格类型测验、冯德里克人员测试以及迈尔斯布里格斯性格分类法等专业方法进行心理评估,找到无人机飞行员的心理短板[1]5;另一方面,为了确保无人机飞行员心理素质的稳定性,2008年以来,美军心理战部队尝试将心理医学中的“正念减压疗法”引入心理增强领域。通过有针对性的心理训练,强化内在心理弹性,以此帮助无人机飞行员调节和管理应激情况对身心冲击造成的诸多不良影响,同时最大程度降低无人作战带来的认知损耗,进一步提升认知效率。
4、 机器的人化设计
进入21世纪,智能化机器人技术的进步日新月异,各类无人作战平台的军事应用呈现井喷式发展。以美军为例,从当前反恐战场上独领风骚的“捕食者”无人机到阿富汗战场上执行清除简易爆炸装置任务的履带式魔爪机器人再到“大狗”负重运输机器人,机器人已经渗透到美军作战和军事生活的方方面面。与美军机器人的应用进展相比,俄军已经组建了整建制的机器人部队,可以承担情报侦察、武装突袭、排雷爆破等多样化作战任务。
伴随机器人智能化程度的不断提升,机器人可能作为未来战争重要的战争主体的发展趋势日益明显,而关于机器人可能摆脱人类控制、沦为杀戮工具和使得战争彻底失去人性的忧虑也日渐凸显。人与机器人如何能够在未来的智能化中做到团结协作,如何规避机器人战争走向失控的风险,这一系列问题的解决既需要人类在物理、生理、心理层面能力素质的提升,也需要在机器人的设计研发过程中谨守人类控制底线,彰显人道主义精神。因此,人机深度融合必须实现机器人武器装备技术设计与伦理设计的同步并行,具体伦理设计遵循以下三条原则,即坚守人类控制机器的设计底线、实现自上而下的道德预置以及实现自下而上的道德生成。
4.1、 坚守人类控制机器的设计底线
虽然当前学界仍有少数学者对机器人作为独立的战争主体持乐观态度,但绝大部分专家学者对于发展完全自主的机器人持谨慎态度。在2018年的全球人工智能联合会议上,超过2000名人工智能领域的学者共同签署《致命性自主武器宣言》,倡议禁止研发具有致命能力的自主机器人系统[13]。在这些人工智能专家看来,必须将未来战场机器人的设计置于人类可以控制的范围之内。那么,如何在具体设计过程中坚持人工控制的底线?笔者认为,人类可控的设计原则主要应当体现为:一是主动的控制。即在整个作战系统的设计中,“人-机”的关系应当被设计为人类驾驭机器,而非机器驾驭人,人类不能被机器反向操控,人类应当以积极主动的心态应对未来战场机器人的潜在威胁,而不能被动地将人类的控制定义为机器人作战失控后的补救措施。二是全过程的控制,即必须保证将人类主动控制的权力贯穿于战场机器人设计、研制、开发、生产乃至应用的整个流程。三是可理解的控制,即必须确保机器人的设计过程能够规避所谓人工智能的“技术黑箱”。设计者不仅要充分理解设计过程中的算法规则与运算过程,还必须深入充分理解每项算法运算在道德层面可能导致的潜在后果。
4.2、 实现自上而下的道德预置
人类对于技术的设计过程同样也是价值观念植入的过程。因此,我们可以在机器人的设计过程中预先植入战争伦理价值观念,使得机器人在作战过程中能够按照预先设置的道德观念来执行作战任务。那么,机器人应当如何遵循道德规范和伦理原则呢?目前,人工智能领域学者考虑以自上而下的方式实现道德预置。罗纳德·阿金教授曾指出:“我们可以通过给智能化武器编程,使之永不违反战争法,……他们丝毫不会受到任何情绪的影响,能在必要时进行杀戮,又能在行为非法时立刻终止。”[3]320具体而言,就是利用计算机算法将伦理原则转化为机器人能够理解的作战规则。譬如,依据战争正义的伦理观念,交战各方要遵循区分原则,即严格区分军事人员和非军事人员,确保平民享有军事打击的豁免权。为了使机器人遵循区分原则,可以采用自上而下设置一组关于区分的算法,用于帮助机器人区分军人和平民。虽然也有一些学者认为当前的算法只能将军服、武器等标识物设置为区分目标,对于身穿平民服饰的恐怖分子却束手无策。但是,伴随人工智能水平的不断提升,这种道德预置的方式可能成为解决人机融合风险挑战的一条重要出路。
4.3、 实现自下而上的道德生成
在将人类的道德观念嵌入给机器人的过程中,必须坚持自下而上的道德生成与自上而下的道德预置相互结合。我们应当充分考虑到当前人工智能技术的发展水平,依靠算法实现自上而下的道德预置仍然存在较大的技术“盲区”和不确定性。为此,当前人工智能学界的专家学者提出,充分利用当前人工智能领域在智能学习、机器学习和深度学习领域取得的一系列前沿进展,并将其应用于作战目标的区分与识别[7]。具体而言,在依托自上而下的道德预置设置基本道德算法的基础上,对机器人在作战过程中的道德表现进行长时间的样本观察和数据积累,利用“改进-继续-改进”机器学习模式,不断修正算法和改进机器人在作战过程中的道德表现,依靠机器人的自我纠正来实现执行伦理原则能力的持续增长。这种自下而上的道德生成方式,可以作为自上而下道德预置模式的重要补充,共同推动机器人的自我完善与自我发展,成为规避机器人失控风险和战争“非人化”道德挑战的重要出路。
5 、结语
回顾历史,军事技术进步和作战方式的演变对于人机融合的挑战始终是战争的重要主题。当前,智能化战争模式下的人机融合问题呈现从原来的人在系统之中到现在人在系统之上再到未来人在系统之外的发展趋势。在这一背景下,考虑到机器的智能化、自主化发展趋势不可逆转,人类采取何种方式方法强化自身的生理、心理素质,人类以何种方式方法与机器深度结合,就决定了未来战争中战斗力的生成以及提升的空间。在未来机器人相互厮杀的战场环境下,军人处在比平民更为安全的环境下遥控指挥战场,如何继续履行战争主体责任,如何继续展现出自身的价值和战争存在感,如何继续保持军人这一职业的社会认可和道德价值,这是我们每一名军人必须要认真思考的问题。
参考文献
[1] Bradley T. Hoagland. Manning the next Unmanned Air Force:developing RPA pilots of the future[R].Brookings:Foreign Policy, 2013:1.
[2] Aaron C. RPA strikes still rising[J]. Air Force Magazine, 2013(3):96.
[3]保罗·沙瑞尔.无人军队:自主武器与未来战争[M].朱启超,王姝,龙坤.译.北京:世界知识出版社,2019:35-42.
[4] Pitzkem M. Interview with the defense expert P. W.Singer:the soldiers call it war porn[EB/OL].[2010-03-12]. http//www.spiegel.de/international/world/0.1518.682852.00.html.
[5] Sally.走近美军无人机“飞行员”的生活[J].看世界, 2017(4):58.
[6] Plageja. 711hpw/HP research, analysis, and consultation for USA, 711th human performance wing[R]. United States:Air force Research Laboratory, USAF Materials Command, 2010:75-146.
[7] Ronald C. Arkin. The Case for Ethical Autonomy in Unmanned Systems[J]. Journal of Military Ethics,2010, 9(4):333.
[8] Ariel Guersenzvaig. Autonomous Weapon Systems:Failing the Principle of Discrimination[J]. IEEE Technology and Society Magazine, 2018, 37(3):55-61.
[9] Karppi Tero, Marc B?hlen, Yvette Granata. Killer Robots as cultural techniques[J]. International Journal of Cultural Studies, 2018(3):107-123.
[10] Army Technology. Human Universal Load Carrier[EB/OL].[2020-03-30]. http://h-s.www.armytechnology.com.forest.naihes.cn/projects/human-universal-load-carrier-hulc.
[11] 搜狐网.解放军的“机甲战士”:可穿戴式外骨骼离我们有多远?[EB/OL].[2020-03-30]. http://www.sohu.com.forest.naihes.cn/a/238218179_100087626.
[12] Robbin A, Miranda et al. DARPA:funded efforts in the development of novel brain–computer interface technologies[J]. Journal of Neuroscience Methods,2015, 244(15):52-67.
[13] Future of Life Institute. Lethal autonomous weapons pledge[EB/OL].[2020-03-30]. http://h-s.futureoflife.org.forest.naihes.cn/lethal-autonomous-weapons-pledge/.