人工智能伦理引论
上QQ阅读APP看书,第一时间看更新

第一节 建构机器人道德能力的必要性

一、道德能力

能力一般指能够胜任某项任务的主观条件和才能。道德能力是人认识各种道德现象,在面临道德问题时能够鉴别是非善恶,做出正确道德评价和道德选择并付诸行动的能力。蔡志良、蔡应妹:《道德能力论》,北京:中国社会科学出版社,2008,第87页。道德能力由道德认知能力、道德判断能力、道德行为能力与道德意志能力等成分构成。罗国杰:《中国伦理学百科全书(伦理学原理卷)》,长春:吉林人民出版社,1993,第308页。道德能力是现实社会中所有的正常人都具备的一种基本能力,这种能力主要是通过学习、教育、模仿等途径逐渐发展起来的。毫无疑问,道德能力在人类的道德生活中发挥着重要作用。

对于机器人而言,当然也可以通过机器学习的方式逐步发展出一定的道德能力。目前的机器学习是建立在海量数据的基础之上的,“阿尔法围棋”之所以能够战胜人类棋手,其重要原因之一就是对大量棋局进行分析学习。但是,对人类的道德活动进行量化并建立庞大的数据库并非易事,所以目前发展机器人的道德能力可能主要依赖于人类的建构与机器人的道德实践,而非机器人基于大数据的自主学习。

建构机器人的道德能力的前提是从理论上厘清机器人道德能力的构成及影响因素。从以上关于道德能力的界定可以看出,道德能力不是一种单一的能力,而是多种能力的集合。机器人的道德能力跟人类会有所区别,但也应该与人类有某些重合之处。有学者认为,机器人的道德能力应该包括以下五个方面:①道德词汇;②规范系统;③道德认知和情感;④道德抉择与行动;⑤道德交流。而且,目前机器人伦理研究主要关注人们应该如何设计、应用和对待机器人等方面的伦理问题,机器道德(machine morality)则关注机器人应该拥有哪些道德性能(moral capacities),以及这些性能如何实现的问题,这两种取向目前基本上处于分离状态,而机器人道德能力的研究可以将两者整合起来。Malle Bertram, “Integrating Robot Ethics and Machine Morality: the Study and Design of Moral Competence in Robots,” Ethics and Information Technology, 2016, Vol.18, No.4, pp.243-256.

建构机器人道德能力的基本目的,一方面让机器人拥有维护人类利益的能力,使之行善,而不会伤害人类;另一方面是使机器人能够更好地与人类互动,让人们能够接受机器人。从根本上说,第一方面是服务于第二方面的。在机器人与人类关系越来越密切的时代背景中,有不少学者主张应该让机器人成为人工道德行为体,具体讨论详见第八章第一节。我们认为,让机器人拥有一定程度的道德能力是它们能够成为人工道德行为体的关键因素之一。当然,拥有道德能力的机器人并不能解决所有伦理问题,但道德能力显然是机器人能够解决伦理问题的前提条件。

二、建构机器人道德能力的必要性

随着现代科技的迅猛发展,机器人在许多方面已经超越了人类。在机器人能力日新月异的当代,至少有以下三个方面的原因突显了建构机器人道德能力的必要性与重要性。

第一,机器人力量的日益强大及其潜在的巨大破坏力。比如,现在的民用飞行器一般都可以载客数百人,并装载大量燃料,一旦失事就会导致巨大的人员伤亡和财产损失。飞行器对人类产生破坏作用主要源于两个方面的因素,即机器本身的故障以及人为因素导致的破坏。2009年法航447航班坠海事件可能是由于这个两方面的综合因素造成的,而2014年的马航失联客机则可能主要源于人为因素。为了防止与马航失联客机类似的事件再次发生,人们通常希望完善机场的安全检查,加强飞机上的安全保卫工作。除此之外,难道就没有别的办法了吗?事实上,希望飞机上数量有限的机组与乘务人员去战胜穷凶极恶的亡命之徒是比较困难的,而普通乘客遇到这种突发事件通常没有多大的反击能力。那么,我们是否可以让飞机本身具有一定的伦理判断能力,拒绝可能导致严重后果的飞行操作,并采取进一步的措施?

为了最大程度减少机器故障导致的事故,就需要提高机器的安全性能。飞机的基本目标是把乘客安全地送达目的地,对飞行器本身的技术性能而言,这主要是制造商的责任与义务,属于工程伦理学的研究范畴。对于机器人伦理来说,我们更需要关注的是第二方面,也就是如何避免(特别是主观故意的)人为因素导致的事件。比如,劫机者通常需要改变飞机的航线和目的地,如果马航失联客机与歹徒劫机有关的话,这次事件跟“9·11”事件一样,客机都根据劫机者的意图,完全偏离了既定的航线。如果飞机具有伦理判断能力,认为航线的完全改变可能导致重大事故,从而拒绝诸如此类的操作,飞机自主地按照原定目标飞行,从理论上可以避免重大事故的发生。

美国达特茅斯学院哲学系教授摩尔(James H. Moor)把内在地按照某种伦理规则运行的机器,根据其伦理判断与行为能力从低到高区分为隐性道德行为体(implicit ethical agents)、显性道德行为体(explicit ethical agents)以及完全道德行为体(full ethical agents)。Moor James, “The Nature, Importance, and Diff iculty of Machine Ethics,” IEEE Intelligent Systems, 2006, Vol.21, No.4, pp.18-21.根据摩尔的分类,我们可以把具有一定的伦理判断及行为能力的飞机归为显性道德行为体。在摩尔看来,显性道德行为体在避免灾难的情景中可能是最佳的道德行为体。因为人类在获取与处理信息方面可能不如计算机,而且在面对复杂问题时,需要快速做出抉择,在这方面计算机比人类更有优势。因此,为了避免飞机被劫持而导致类似于马航失联航班事件以及恐怖袭击事件等情况,将现有的大型飞机发展为显性道德行为体可能是最有效的方式之一。

第二,机器人自主程度的不断提高。目前许多国家都在积极研发军用机器人,而军用机器人的一个重要发展趋势就是自主性在不断提高。比如,美国海军研发的X-47B无人机就可以实现自主飞行与降落。韩国、以色列等国已经开发出了放哨机器人,它拥有自动模式,可以自行决定是否开火。显然,如果对军用机器人不进行某种方式的控制的话,它很可能对人类没有同情心,对目标不会手下留情,一旦启动就可能成为真正的冷血“杀人机器”。为了降低军用自主机器人可能导致的危害,必须让它们遵守人类公认的道德规范,比如不伤害非战斗人员、区分军用与民用设施等。虽然现有技术要实现这样的目标还存在一定的困难,但技术上有困难并不意味着否定其必要性与可能性。

需要强调的是,建构机器人道德能力并不是去阻碍技术的发展,而是要让技术更好地为人类服务。在机器人具有越来越强的自主性的背景下,人对机器人的控制逐渐减弱,这就必然要求机器人自身对其行为有所控制,从而尽可能减少或避免机器人产生的负面影响,而发展机器人的道德能力就是实现机器人自我调控的重要手段。

第三,人类对机器人依赖及其可能产生的负面效应。随着拥有越来越强大智能的机器人的涌现,不少人认为机器人将会像个人电脑一样走进千家万户。目前,儿童看护机器人在韩国、日本和一些欧洲国家得到广泛重视。日本和韩国已经开发出了实用的儿童看护机器人,具备电视游戏、语音识别、面部识别以及会话等多种功能。它们装有视觉和听觉监视器,可以移动,自主处理一些问题,在孩子离开规定范围还会报警。Sharkey Noel, “The Ethical Frontiers of Robotics,” Science, 2008, Vol.322, No.5909, pp.1800-1801.精确的量化研究表明,在跟机器人相处几个月后,幼儿像对待小伙伴那样对待机器人,而不是把它们看作玩具。Tanaka Fumihide, Cicourel Aaron and Movellan Javier, “Socialization between Toddlers and Robots at an Early Childhood Education Center,” Proceedings of the National Academy of Sciences of the USA. 2007, Vol.104, No.46, pp. 17954-17958.显然,儿童看护机器人可以作为幼儿的亲密玩伴,特别是对缺少小伙伴的幼儿来说可能更重要,因为它们的效果比一般的玩具要好得多,可以让他们更开心。毫无疑问,儿童看护机器人可以减轻家长的负担,使他们能有更多的自由时间。我们也可以大胆地估计,将来儿童看护机器人会走进中国家庭,而且人们对儿童看护机器人的依赖也会逐渐加深。

但是,机器人是否可以取代,或者说在多大程度上可以代替成人的照顾呢?如果把孩子完全交给机器人,会发生什么样的情况?虽然机器人技术的发展会使得儿童看护机器人做得越来越好,但是,把儿童完全交给机器人看护确实存在一定的风险,因为家长的照顾与机器人的看护还是有着根本性的区别。如果孩子从小与机器人一起长大,他们可能会认为与机器人在一起的世界是真实的,与人类在一起的世界反而让他们更难接受。对于幼儿的健康成长来说,家人的关爱是无法替代的,机器人只能起到辅助作用。现在已经开发并投入使用的助老机器人也面临类似的伦理问题。

那么,如何消除或减少这些潜在的风险?通常人们可以想到的办法就是给看护机器人的应用设定一个限度,从而避免家长把儿童长时间交给机器人看护而导致不良的后果。目前,不少国家在工业机器人领域有一些安全准则与法律法规,但对于儿童看护与助老机器人的应用限度还缺乏相应的政策与法律法规。除此之外,机器人还应该具有是非善恶的判断能力,如果家长没有履行自己照顾孩子的义务,儿童看护机器人需要进行提醒;当老人出现某些负面情绪需要家人安抚时,助老机器人需要与家人取得联系,帮助家人解决相关问题等。诸如此类的问题都或多或少地涉及机器人道德能力的建构问题。