第 3 章 人工智能发展中面临的伦理困境
在人工智能技术飞速发展的时代背景中,人工智能产品开始不局限于生产领域,开始逐渐融入生活领域,拟人仿真智能机器人就应运而生。它们拥有和人类愈发接近的外观,并且也代表着人工智能向人类智能的进一步靠近,这类机器人无论从"长相"还是"内在"都更容易被人类所接受,它们也顺理成章的成为了某些家庭的成员,就这样,机器人开始真正的进入了人类的日常生活。
正是由于智能机器人与人类的关系日益密切,引发了一系列伦理问题。历史上,任何新兴事物的出现,总免不了对现有社会体系产生冲击,特别是伦理道德体系的重建显得摧枯拉朽、天昏地暗。害怕失去熟悉的环境,尤其不爽失去既得利益,于是,机器人的日益活跃肯定会引发全社会关于伦理、道德的大讨论,这有可能会在一定时间内阻碍机器人的发展,但总的来说,科技是第一生产力,左右着人类的进程,至于伦理、道德体系只是科技的衍生物,大不了推倒重建,更何况,我们已有了如此成熟的法律监管制度,估计不会把自己搞瘫痪。如此看来,对人工智能技术伦理问题的研究也就成为了重中之重,机器人伦理问题近年来也引起了许多学者和社会大众的关注。
3.1 人工智能伦理问题的产生及其演变。
3.1.1 人工智能伦理问题的产生。
自从 1818 年玛丽·雪莱创作出世界上第一部科幻小说《科学怪人》,到 1927年美国西屋公司制造出第一个机器人"电报箱",再到现在,幻想正在一步步变为现实。机器人在拥有"十八般武艺"的同时,甚至也开始有自己的"情感".
说到人工智能伦理思想的起源,可以说自从有了人工智能技术的那一天开始,关于人工智能的伦理思考就开始了,人工智能之父艾伦·麦席森·图灵(AlanMathison Turing)在自己早年的论文《智能机器》中不但详细讲述了人工智能技术的发展形势和方向,同时也提到了人工智能迟早会威胁到人类的生存。在1942 年的短篇小说《我,机器人》中,科幻作家 Isaac Asimov 提出了机器人的3 条准则--工程安全措施和内置的道德准则,以保证机器人会友善对待人类并使人们免于机器末日。物理学家霍金也曾撰文做了总结:"成功创造人工智能将是人类历史最大事件,若不懂如何避开风险,这也将是最后的大事。"这些关于人工智能的伦理思考甚至有些早于第一台人工智能机器的诞生(1951 年),也就是说人类在人工智能技术真实出现前就已开始对人工智能技术带来的伦理困境开始了未雨绸缪的思考。
3.1.2 人工智能伦理问题的演变。
目前看来,在 2014 年,作为人工智能技术引领者之一,谷歌率先成立了人工智能伦理委员会,来确保人工智能技术不被滥用。物理学家斯蒂芬?霍金和科技富豪伊隆?马斯克等多位名人都曾经公开表示过对人工智能的危及人类生存的担忧。霍金说:"全人工智能的发展可能意味着人类的终结。人类受到了缓慢的生物进化的限制,根本无法与之竞争,而将被取代。"马斯克同样疑心重重,2014年他曾表示强人工智能"可能比核武器更危险,而最近人工智能是我们最大的生存威胁".
但是,人工智能技术的发展不会一蹴而就,它也势必是一个循序渐进的过程,而关于我们所能设想到的人工智能技术发展的形态所涉及的现实伦理问题也是有限的。
3.2 人工智能技术伦理困境的主要表现。
在庞大的伦理学知识体系中,结合人工智能的实际情况,其主要涉及到以下几点伦理问题。
3.2.1 该不该赋予"人性"的机器以人权。
维护和保障人权是当今社会的一项基本道义原则。目前,评判一个集体在政治上或经济上是处于优势或是劣势的重要标准就是这个集体是否保障了人权。甘少平先生曾提到:"所谓人权,是作为个体的人在他人或某一主管面前,对于自己基本利益的要求与主张,这种要求或主张是通过某种方式得以保障的,它独立于当事人的国家归属、社会地位、行为能力与努力程度,为所有的人平等享有人权是人之为人的最基本的权利,是一切利益和权利的前提和基础。"人权的定义指出人权的两个基本特征是普适性和道义性,而随着时代的发展,人权又慢慢的延伸出基础性这一特征,这一特征所反应的是人类最基本的利益与需求。人权的概念中蕴涵着强烈的伦理思想,这一点是毋庸置疑的。"所谓人权伦理,即人权中本身蕴涵的基本道德制度以及在一切人权制度、人权活动中所体现出来的道德、价值和伦理关系以及应遵循的道德原则、道德规范的总和。"人权伦理力求使人的全面发展与人的自由是可以实现的,并强调人应被合理对待。人权伦理的内容主要分为四个方面:第一,人的生命价值,尊重人的尊严。二、尊重人的自由与平等。第三,注重民主和互爱的精神。第四、促进人的发展。人权伦理的主体性强调,人首先要有主体性,只有主体性,才能体现自己的价值。人权伦理的普遍性则正如马克思所强调的那样:"一切人,作为人来说,都有某些共同点,在这些共同点所及的范围内,他们是平等的。"迅速发展的人工智能技术使得之前只是从事简单体力活的智能机器人具有一定程度的感知能力并被赋予其所谓的"人性",伴随着这些"智能生命"的出现,使得"人权"受到了不小的挑战。美国未来学家雷·库兹韦尔(Ray Kurzweil)预言道,"拥有自我意识的非生物体(机器人)将于 2029 年出现,并与 21 世纪30 年代成为常态,他们将具备各种微妙的、与人类似的情感。"他还预言,2045年是极具深刻性和分裂型的转变时间,"非生物智能在这一年将会 10 亿倍于今天所有人类的智慧。"所以智能机器人在未来的应用领域会越来越广泛,这些机器人会在各个领域为人类带来便利甚至保卫人的生命,但是在科技发展的同时就不得不面对人权伦理这一根本的问题。并且必须要考虑当智能机器人具有所谓的"人性"后,其是否有权拥有和我们一样的"人权".智能机器人是通过计算机编程代码的方式来实现其动作行为,通过复杂的、不同的算法来使机器人尽可能的接近人的行为习惯。随着智能机器人的普及,和使用人群的增加,关于是否给机器人以"人权"的话题讨论也进入了白热化。有反对者认为:我们的生活中不需要强大的智能机器人,而且也决不允许给机器人"人权".如果让机器人拥有了所谓的"人权",这就违背了"机器人三大法则",这是对于机器人的放纵,是对于人类的变相伤害。而赞成的人认为,如果机器人可以拥有道德修养,可以自主的和人类产生互动,那么"人权"就是他们应该享有的权利。
斯坦福大学的教授克利福德·纳斯也曾指出过:"生命是特别的,我们不应该像破坏法律那样去虐待那些机器、动物等非人类生命,非人类生命也应该有相应的'人权'."但笔者认为,是否给予机器人以"人权",都不能呈极端化的趋势,应该对于人权进行梳理分类,可以对不同功能的机器人给予不同的"人权".在这个赋予过程中有一个最根本的原则就是造福人类,不能给人类带来伤害,所以给予多或少这个"度"非常重要。
3.2.2 谁来负责智能机器人的过错德国学者汉斯·伦克在 1979 年出版的《责任原理:技术文明时代的伦理学探索》中把责任伦理学第一次作为一个伦理概念进行了论述,这种科技的伦理学对哲学界和神学界产生了巨大的影响,并推动了社会各个层面对于这一问题探究。"责任伦理是在对责任主体行为的目的、后果、手段等因素进行全面、系统的伦理考量的基础上,对当代社会的责任关系、责任归因、责任原因及责任目标等进行整体伦理分析和研究的理论范畴。"责任伦理是一门实践的学科,随着科技高速的发展,对于人的影响也会越发明显,所以对于责任伦理充分的掌握,将可以帮助人们解决技术时代中的各种难题。
自 1959 年第一台工业机器人问世以来,经过了长时间的科技发展,机器人技术已经发生了巨大的更新,并且以惊人的速度向社会各个领域扩张。伴侣机器人、餐厅机器人、医疗机器人等出现在了民众可以触及的生活当中。这些机器人在各个领域中的有益表现使得人们在高兴的同时也陷入了思考。因为机器人的超智能多具备的自我学习能力,"会不会使他在一段过程之后不再是出生时的它了,会不会像人一样依照自己的逻辑思维去做他们想做的事情--要是想法走偏瞎搞一气怎么办。"所以,机器人出现"意外"该由谁负责就成为了讨论的关键所在。而关于人工智能伦理问题的相关规定与原则都还有待加强,相关的规定更新和制定的速度需要符合当前技术发展的需要,也正是这方面的不足导致人工智能带来的伦理问题日益增多,人类也面临着前所未有的压力。人工智能是否会导致大量劳动力失去工作,医疗的人工智能若对病人产生误判而导致病人健康受损,智能机器人出现故障导致了人的受伤甚至死亡,这一切的问题究竟应该由谁负责,生产者、使用者或是机器人本身呢?不解决好这一问题,对于智能机器人的日后发展将产生巨大的副作用。所以应加快相关政策规定的出台,学术理论的深入研究迫在眉睫。
此外,责任伦理还强调了对于现在和将来的负责,也就是说人工智能不光是对于当下人们的使用不产生相关的危害,这种危害更不能延续到下一代人的身上。人工智能技术的发展,无论从政府的监管层面还是到消费者的使用层面都应该负起相应的责任。现代的技术是不可逆的,这就警惕我们要慎重的对待这一问题,不能将人类的未来当作"赌注".当前的舆论普遍认为,人工智能科技的突飞猛进可能会对人类造成许多新的伦理问题,而传统伦理学对于人工智能技术中出现的伦理问题是无法涵盖和应对的,尤其是责任伦理问题。所以,为了人类的长远发展,人工智能科技术发展所引发的责任伦理问题不容忽视,我们要给予人工智能技术引发的责任伦理问题相应的关注,且进行深入的思考和探讨。
3.2.3 如何定位智能机器人的道德地位随着社会的进步,人类的科技开始逐渐迈进了"智能+"时代,这也是"互联网+"发展的必然结果和终极目标。人工智能将不仅能改造我们的身体结构,更重要的是这门技术将势必会引起社会内在联系的变革,并将时刻影响着人与自然的关系。既然我们谈到了人工智能带来的人权伦理问题,也就不可避免的要准确定位其社会道德地位。而所谓的道德地位是基于人类独有的精神特质而存在的,而这些精神特质一般都包括:"感觉疼痛的能力或具有感情;目标导向;对于周围环境和自己的认识或意思;思维和推理能力;语言能力等。"人工智能的出现,我们就不得不为其进行道义上的权利申辩,尤其是当具有人类情感的机器人出现的时候,当他们具有相当的"人性"的时候,他们就该拥有相应的道德地位。
在道德权利中,正如雷根指出的那样:"尊重是基本的主题,因为彼此相待以尊重不过就是以尊重我们其他权利的方式对待彼此。我们最基本的权利,同意我们所有其他的权利的权利,就是受到尊重的权利。"人类社会中,一旦其余成员有了道德地位也就意味着人类又多了一份道德责任。如果我们否定智能机器人的道德地位,我们就可以用任何我们喜欢的方式对待他们,这种方式可以是友善的也更可以是恶劣残酷的。一个拥有人权的个体,或者说拥有相应人权的群体,就理应受到道德的对待。我们可以想象,当有一天一个属于我们自己的智能机器人在家里或者在外边受到毫无人性的虐待,就像如今的某些动物一样受到了不公平的待遇,这还能与我们所坚持的传统伦理道德相契合么?作为社会的主人,我们要始终明白并不是只有人类才有道德诉求,在我们利用机器人做我们不愿意干的脏活累活时候,当我们无休止的要求机器人为我们做事甚至为所欲为的时候,我们是否为自己的行为找到了理由?当人工智能机器人的功能越来越接近人类智能的时候,我们就要为他们争取更高的道德地位,原则是不得超越人而存在,但笔者断定这个地位势必是要高于家里的宠物犬的。至于这个道德地位到底如何定位,我们还缺少一套完整的判定体系,毕竟,不同类型、不同智能水平的机器人,对于权利的要求是不一样的。
3.2.4 人工智能技术的发展带来的环境伦理问题。
人工智能技术作为新兴科技的出现,势必会对环境造成影响。过去的一个世纪,人类科技水平突飞猛进,每一个国家和个体都享受着科技进步带来的福利,可同时也逐渐的意识到这些福利所带来的弊端 - 环境的过度污染。随之一系列宣扬保护环境的运动因运而生。
在世界范围里,环境运动是从 20 世纪 60 年代开始的。雷切尔·卡逊女士的《寂静的春天》一书对这个运动起了非常重要的作用。曾任美国副总统的阿尔·戈尔说:"1962 年,当《寂静的春天》第一次出版时,公众政策中还没有'环境'
这一条款……《寂静的春天》犹如旷野中的一声呐喊,用它深切的感受。全面的研究和雄辩的论点改变了历史的进程。"从那时候开始,公众对滥用自然资源,对工业造成的公害表现出极大的道德义愤,表明保护环境、反对污染是一种功德,是一种道德的命令,已经被纳入基本道德规范的范畴了。
环境伦理,根本上是一个世界人权的问题。随着科技的发展,随着世界贸易和各国间经济合作的加强,世界早已成为一个地球村。环境的污染,核辐射的扩散,臭氧层的穿洞以及温室效应都是无国界的。人工智能已经越来越多的深入到我们生活生产的各个领域中,而生产制造人工智能机器人的过程也会导致对地球资源的大量消耗,我们使用的越多消耗量也会越大。在人工智能为我们带来大量财富和便利的同时也会使我们的环境恶化情况变得更加严峻。例如,大量的太空探索任务就是依靠人工智能进行的,这也无疑会产生越来越多的太空垃圾,危机我们的生存环境。
环境伦理观要求人类热爱大自然,利用科技造福人类,要求实现人与自然的协调发展。"科技时代的环境伦理观将爱护环境置于科学技术发展的开发研究之中,将热爱环境的思想提升为道德上的自律行为。"人工智能的发展引发的环境伦理问题也是我们今天所一直在批判和修正的高消费标准追求,这就需要我们建立循环的生态工业体系。而环境伦理和生态科学的发展,必然会返回整体主义和系统主义的本体论、价值论和伦理观念。人工智能技术也只有配合系统主义的哲学才能与当代的发展内在需求相协调。
3.3 人工智能技术伦理困境的成因。
随着人工智能技术的不断进步和发展,人工智能的伦理问题也必将愈发突出,而对于人工智能伦理困境的分析和解决也必须保持相应的发展速度,这就需要我们从根本上多维的分析人工智能伦理困境的形成原因。具体的原因大体有以下几种。
3.3.1 缺乏成熟的研究对象。
堪称人类最高水平的智力游戏围棋上,人工智能连赢曾经的世界第一人李世石 3 局,而且几乎都是完胜,让这位韩国人直叹"AlphaGo 没有缺点"、"人工智能太强大"、"取胜太过艰难".而第 4 局,李世石同样面对局面上的劣势,但是下出了白棋 78 手"神之一手",顶着巨大劣势的情况下翻盘。而稍微懂围棋的人都知道,白棋 78 手并非什么神之一手,关键是黑 79 手的"神之失误",这是连人类业余选手都不会犯的错误。
深度神经网络是目前最热门的人工智能路线之一,谷歌的 AlphaGo 围棋软件就以它为核心,而且相当多的人认为这是未来最有前途的高级人工智能。但神经网络的功能当然不止下围棋,它们还在许多其他领域实现了卓越成就,比如"视觉分类"任务--神经网络可以相当准确地判断出图片是猫还是企鹅。相当准确,但并不完美。研究者发现,人为设计的图像很容易骗过它们。这本身没什么了不起,人脑也很容易被骗--但是,令神经网络摔倒的那些图,在人看来却是完全正常的。而所有这些现象无非说明一个问题:人工智能在技术上是有局限性的。
(1)智能化方法与途径方面的局限性。从机械角度出发,主要分为结构派和功能派。结构派从研究人的大脑神经结构出发,企图模拟人的神经网络,殊不知人的神经元数量众多,这也使得结构派的智能化道路显得任重道远;功能派从研究思维的活动和智能行为的心理学特性出发,但是根本思维还是符号主义,理论模型仍是图灵机模型。
(2)数学基础的局限性。人工智能最基本的还是计算问题,这就涉及到近代数学的现状。近代数学具有封闭性,线性,结构不变性,收敛性以及精确性,而人工智能所要求的却恰好相反,它所需要的是进行非结构化的、非线性、模糊发散的计算,以满足智能化的需求。
(3)计算机模型的局限性。主要表现在几个方面:问题表示的方法的局限性;需要对问题本身抽象出一个数学意义上的精确地解析式;需要针对问题设计算法;求解的结果的唯一性;图灵计算机模型下的问题一般都是可递归的问题。
很多时候,要实现真正的人工智能,我们要求的是满意解而非是精确解,而这时以图灵模型为原型的计算机模型所做不到的。
(4)实现技术方面的局限性。人工智能在知识表示、推理、环境与工具等都存在较大的局限性,限制其发展。
对于已解决或者即将解决的智能问题,通过对计算机的功能程序和它们之间的关系的深入研究中,或许我们可以找到一条发展人工智能的新途径。使用计算机解题,都必须通过汇编语言编写一些程序,将要求解的问题和算法转换成机器语言,即"0"、"1"代二进制机器指令,方可进行。因此用通用的指令集,即代表了计算机解决问题的能力。因此,我们或许可以从功能方面去研究一些具有基本功能,但是又无法由其他指令编程实现的基本指令并通过对他们的指令集进行分析,以研究人工智能。
人工智能诞生的时间并不太久,技术也显得不很成熟,某种意义上讲,总是面临着相当多的局限。这就使众多想要探究人工智能伦理学的专家学者们还没有一个完整成熟的研究客体,对于人工智能的具体形态和产生的社会影响有相当一部分是来自推测和预判。而民众对于人工智能的"形象"认识则更多的来源于科幻电影,这就导致人工智能还未完全发展就已需要面对社会各界的压力。所以我们必须加快人工智能技术的研发,尽早的呈现出成熟的人工智能产品,这样才更有利于对人工智能伦理的研究。
3.3.2 伦理规制缺失。
任何一门科学技术的诞生只有在符合科学技术进步、社会道德规范和道德原则,使其符合道德价值评估下,才能够继续推动人类社会的文明和进步。现在人工智能机器人已经越来越被广泛的应用到生活生产的各个方面。所以我们要警惕这门技术发展的"失控"局面,要尽早的给这门技术以及将来出现在我们生活中的智能机器人定下"规矩"、定下"原则".
每个技术从一开始的发展到最终的成熟都会面临各种各样的问题,但只要我们科学处理这些问题,就可避免很多不必要的损失,这项技术也能得到更平稳的发展。越来越多的人工智能专家现在开始重新审视人工智能技术发展所带来的种种伦理和法律问题。去年一月,一组人工智能科学家发出公开信,呼吁人们警惕人工智能的副作用,特别是建议将对人工智能的法律和伦理研究列为"短期研究优先",呼吁科学家和法律专家哲学家合作。
基于现有的人工智能理论和技术的实况,具有成年人智力水平的人工智能系统还没有研发出来的希望。因此,人工智能的应用面临的伦理困境,更多的是思想实验的性质。学术界对人工智能伦理的思考有其自身的特点,如从思想史的角度找到了人工智能技术的思想背景,或类似技术在社会化过程中产生了什么样的问题,从而为人工智能技术发展过程提供参考,并且这些问题都亟待解决。
这就需要科学家与伦理学家的密切合作。伦理学家需要熟悉的决策理论、博弈论、经济学理论、统计等领域,作为思想理论的哲学前提,加强对人工智能问题的人文思考,从而提出行业发展的建议。当然,跨学科的密切合作,为人工智能技术指定相关的法律政策和伦理规制并不是一个国家或部分地区的职责,它要求各国工程师、伦理学家、律师以及各领域的政策制定,更需要全人类的共同努力。我们必须知道这技术可能产生的不道德行为,尽其所能的对智能机器人的发展做出一个系统的定义,使其根据一定的规范发展,并始终保证人工智能发展要受到道德规范的限制,一旦不受限制,科技发展必将对人类安全构成威胁。在发展人工智能的过程中,政府部门、科学界、哲学界和法学界等不同领域的专家需要共同努力,一起为人工智能谋划明朗的前景。
3.3.3 公众对人工智能的误解。
3 月 9 日注定会被写入人类史册--是的,你应该已经在无数刷屏的文章开头读到过这句话。这一天,全人类通过网络直播共同围观谷歌人工智能 AlphaGo与韩国棋手李世石的超级对弈,见证了人类首局失守,笃信人类未来同样会遭人工智能搏杀的声音越来越多。
但那又怎样?人工智能赢了棋,人类却赢得了未来。抛开深度学习、博弈树、神经网络等令门外汉眩晕的词汇,在人类与机器的较量转战围棋领域之初,我们就应该想见,即使是天才棋手也会敌不过人工智能。但这并不可怕,没有人类上千年来在棋谱上沉淀的智慧,何来 AlphaGo 今天的胜利?真正可怕的并非人工智能的成长上限,而是人类对人工智能深深的误解,以及惶恐。
从这一点上而言,人类输了首局反倒是好事。它让我们重新审视人性、竞技美学,以及人类智慧。人工智能对人类生活的种种颠覆,帮助我们直抵生活的核心。AlphaGo 并非依靠自然进化而来,即便其会筑势、会手筋、会试应手、会逆转棋局,本质上映射的还是人类智慧的结晶。那么,对于人工智能的态度更合适的建议或许是:"不用那么担心".
霍金号召大家警惕人工智能可能带来的威胁、伊隆·马斯克因担心未来机器将取代人类而抑郁,但在扎克伯格看来,这些担忧毫无依据。在被问及如何看待机器可能在很多方面比大脑更聪明,比如 IBM 深蓝战胜棋王卡斯帕罗夫等问题时,扎克伯格曾作出如下回应:"人类制造机器就是为了让机器在某些方面强于人类,但是机器在某些方面超越人类不意味着机器有能力学习其他方面的能力,或者将不同的信息联系起来而做超越人类的事情,而这一点非常重要".
当被问道"难道科幻小说里那种(机器超越人类)的事情真的就不可能发生么?我们难道一点都不需要担心人工智能的安全性么?"时,扎克伯格解释道:"我们现在担忧人工智能的安全性,就如同两百年前担心要是以后有飞机了飞机坠毁怎么办一样。如果我们总是过度担心安全性,我们就不可能造出飞机。不管怎么样,我们要先造出飞机,再担心飞机的安全性。我们过度担忧人工智能,将阻碍人工智能实际的进步。我们要认识到无人驾驶汽车可能可以帮助我们减少车祸的发生,而且人工智能系统甚至能够帮我们诊断疾病,所以因为担心安全性而阻碍人工智能的进步可能是最糟糕的选择,因为我们本来可以利用人工智能让世界更美好。"世界正在发生一桩重要的事情,智能化正渗透进各个领域,可是人类为什么要因其足够富有想象空间,而忧心忡忡?
当 1997 年深蓝多次击败顶级象棋棋手之后,人们也曾感到如临大敌。但结果呢?"但更让人意外的是人工智能的出现并未削弱纯人类国际象棋选手的水平。恰恰相反,在廉价且超级智能的国际象棋软件的激励下,下国际象棋的人数、锦标赛的数量以及选手的水平都达到了历史之最。与深蓝首次战胜卡斯帕罗夫时相比,拥有国际象棋大师头衔的人数至少翻了一番。现今排名第一的人类国际象棋选手马格努斯·卡尔森(Magnus Carlsen)就曾和人工智能一起训练,并且被认为是所有人类国际象棋选手中最接近电脑的一个。他还是有史以来评分最高的人类国际象棋大师。"凯文·凯利在《必然》中写道。
智能化的水平越高、应用范围越广,就有越多人想要使用它,这又将继续促进人工智能朝着愈加"智能"的方向发展,进一步拓宽应用范围。担心工作岗位被这些聪明又不知疲倦的伙伴抢走吗?但我们为什么要选择性遗忘人类工业化过程中,被自动化技术接替的那些乏味的、机械性高度重复的工作,以及工业文明在全新领域为人类开拓的那亿万份工作呢?就像 19 世纪的农民无法想象今天我们大多数人从事的工作一样,人类应该尽情畅想正如潮水般袭来的新职业,而非关起门对未来出路感到惴惴不安。
3.3.4 监督管理体系不完善。
纵观世界各国关于人工智能的管理,至今还没有哪个国有一套完整的监管体系来全天候监控人工智能的发展和使用。而人工智能伦理问题的出现和这种监管现状有着内在的必然联系。人工智能技术本就是一门敏感的技术,这是我们前文多次提到的,它的这项特质决定着在其发展的过程中必须受到严格的监控,无论是政府部门、科技协会还是公众监督体制。而更重要的是需要一个具有世界性权威的组织时刻引导着人工智能的发展方向,所有的这些体系,就目前来看都是滞后的,这与人工智能的飞速发展以及其已经或者即将对人类社会带来的影响是不同步、不协调的。
如果人工智能技术在生产使用过程中缺乏有效的监管,那么人工智能产品就会带着大量的漏洞进入人类生活,而人工智能技术滥用现象也会日渐增多,这其中必然会引起一些列的伦理问题。无论是人权伦理、责任伦理还是环境伦理等等,这些伦理问题的解决都离不开一套完善的管理体系,如果某天强人工智能横空出世般的出现在人类面前,而我们还没有任何组织或体系去应对它们,所有的伦理问题都犹如井喷般的出现,人工智能技术也必然会倒在伦理困境的泥潭中,而人类也会因此走上一条自我毁灭的道路。