人工智能伦理引论
上QQ阅读APP看书,第一时间看更新

第二节 影响机器人道德能力建构的基本要素

本书第八章主要从设计者的角度出发,探讨对机器人进行伦理设计的问题,这是机器人道德能力建构的内在手段。本章则主要从使用者、从人与机器人互动的角度出发,探讨机器人道德能力建构需要考虑的几个核心因素,由此形成一个较为全面的关于机器人道德能力的结构框架。

一、人与机器人道德地位的不对称性

众所周知,机器人“robot”一词的最初由来,即是取意于“奴隶、奴仆”。现在,许多领域的机器人所做的仍然是人类认为枯燥、危险的工作。随着机器人智能水平的提高和应用范围的扩大,机器人与人类的关系越来越密切。如前一章所述,人们一般倾向于认为,外观跟人类接近、拥有较高智能的机器人,应该拥有一定的道德权利,至少我们应该尊重机器人,而不是把机器人当作纯粹的工具。不过,如果机器人可以拥有道德能力的话,人类对机器人道德能力的预期与普通人可能会不大一样。在道德能力方面,人类可能对机器人道德能力的期望较高,也就是说人类与机器人的道德地位是不对称的。

这种不对称性至少表现在两个方面。第一,从人类应该如何对待机器人的角度看,人们可能希望机器人对人类的行为更宽容。有学者设计了十个假想情景,让58名大学生分为两组分别对假想情景进行道德评价,在其中一组的情景中受害人不明确,可以假定是人类,而另一组的情景中受害人是机器人。研究结果发现,对于同样的违反道德的行为,当这些行为是针对人类而不是机器人时,该行为被认为是更不道德的。Lee Sau-lai and Lau Ivy Yee-man, “Hitting a Robot vs. Hitting a Human: Is it the Same?”HRI'11 Proceedings of the 6th international conference on Human-robot interaction, Lausanne,2011, pp.187-188.当然,人们的哪些行为对机器人来说是可以接受的,而对人类自身来说是不可接受的,或者可以接受的程度,这些问题还需要具体分析。

第二,从机器人应该如何对待人类的角度看,人们可能希望机器人道德水平更高,在道德活动中更为积极主动。已有经验研究表明,人们可能对人与机器人采用不同的道德规范。在道德困境中,人们倾向于期望机器人做出符合功利主义的选择。在同样的道德困境中,人们谴责机器人的不作为多于它的作为,但谴责人的作为多于不作为。如果机器人的道德抉择没有符合人们的期望,机器人需要对自己的抉择做出相应的解释以获取人类的信任,由此也需要机器人具备一定的道德交流能力。Malle Bertram, et al, “Sacrif ice One for the Good of Many? People Apply Different Moral Norms to Human and Robot Agents,” HRI'15 IEEE International Conference on Human-Robot Interaction, Portland, 2015, pp.117-124.

毫无疑问,科技工作者应该根据人们对机器人的预期来建构机器人的道德能力,这样才能使机器人更好地为人们所接受,也可以使人们更信任机器人。事实上,从事机器人与人工智能伦理研究的学者,也普遍认为机器人的道德水平、道德标准应该比人类更高。人与机器人在道德地位上的不对称性也表明,人与机器人之间的互动研究可以参考人与人之间的互动规律,但并不能直接照搬,人与机器人之间的互动有其特殊性与复杂性。

尽管人们可以对机器人提出较高的要求,但是建构机器人道德能力的目标并不是让机器人成为人人满意的完美道德模范。首先,机器人的道德能力是由人类设计建构的,在建构的过程中不可避免地会有设计者的一些主观偏好融入其中,从而使机器人表现出设计者的某种“偏见”。另一方面,由于人类社会环境的复杂性,设计者不可能预见所有情况,机器人只能在有限的知识与信息的基础上进行道德判断与抉择,由此也决定了机器人道德能力的非完美性。其次,由于不同的人出于各种原因会对同样的道德行为做出不同的道德判断,让机器人成为完美的道德模范是不现实的。再次,即使表面上看来是完美的道德模范,在现实社会中可能并不是最理想的道德主体。任何人都会有一定程度的偏见,人类在与机器人的互动过程中,也会希望机器人与人一样有某种类似的认知人格。事实上,与人类相似的认知偏见在人与机器人长时间的互动过程中发挥着重要作用。也就是说,与没有偏见的机器人相比,人们更愿意与有某些偏见、非完美的机器人互动。Biswas M and Murray J, “The Effects of Cognitive Biases and Imperfectness in Long-term Robot-human Interactions,” Cognitive Systems Research, 2017, Vol.43, pp.266-290.

可见,在考虑到人与机器人道德地位的不对称性的前提下,我们应该使机器人的道德判断与行为尽可能符合人类的预期,同时使机器人的道德认知、道德行为跟人类有较多的一致性,包括有某种程度的偏见、偶尔会犯点无伤大雅的小错误等,或许这样的机器人才更容易为人们所接受。

二、机器人外观与道德能力

机器人拥有合适的外表,让人产生亲近感,从而使人们更容易接受它们,这是建构机器人道德能力的基本前提。对机器人的外观与人类对其的好感度(aff inity)之间的关系,影响最大的理论可能是日本机器人专家森政弘(Masahiro Mori)提出的“恐怖谷”(Uncanny Valley)理论。该理论表明,机器人的外观和行为跟人类越是接近,人们越容易产生积极的正面情感;但是,这种正面的情感到达一个峰值之后,随着相似度的提高,人们会对机器人产生恐怖的感觉,形成所谓的“恐怖谷”;当相似度持续上升到与人类更为接近的程度时,人们对机器人又会重新产生正面的情感。Mori Masahiro, “The Uncanny Valley,” IEEE Robotics & Automation Magazine, 2012, Vol.19,No.2, pp.98-100.如图2-1所示。维基百科:《恐怖谷理论》,http://zh.wikipedia.org/wiki/恐怖谷理论。

图2-1 “恐怖谷”理论示意图

“恐怖谷”理论虽然主要是针对人型机器人的,但对于非人型机器人同样具有一定程度的适用性。受“恐怖谷”理论的启发与激励,许多学者对人们关于不同外观机器人的接受与喜爱程度进行了比较研究,因为机器人的应用范围非常广泛,不同应用领域的机器人的能力与外观差异巨大。从外观上看,机器人主要可以分为机器型机器人、动物型机器人、人型机器人等三大类别。对于主要使用对象是少年儿童的机器人,机器型、动物型机器人可能更容易被接受。有学者让159名儿童对40张机器人图片进行评价,结果表明,儿童对机器人外观的分类,与成年研究人员的分类基本一致;而且,儿童把人型机器人看作是攻击性的和专横的,而把动物型机器人看作是更友好的和腼腆的。Woods Sarah, “Exploring the Design Space of Robots: Children's Perspectives,” Interacting with Computers, 2006, Vol.18, No.6, pp.1390-1418.

与此类似,有学者对有轻微认知障碍的老人关于机器人外观的态度进行了研究,发现老人更喜欢小型的、某些特征介于人/动物和机器之间的机器人。不过,尽管参与者不太乐意面对类人机器人,但他们确实对某些拥有人类特点的、新颖的小机器人表现出积极的态度。Wu Ya-Huei, et al, “Designing Robots for the Elderly: Appearance Issue and Beyond,”Archives of Gerontology and Geriatrics, 2012, Vol.54, No.1, pp.121-126.但是,青年或中年人可能更倾向于喜欢人型机器人。通过对79名大学生对不同外观机器人的态度研究表明,大多数人喜欢人型机器人,只有少数人偏爱机器型机器人。而且,不同类型的机器人外观也影响人们对机器人性格的认知。Walters Michael, et al, “Avoiding the Uncanny Valley,” Autonomous Robots, 2008, Vol.24,No.2, pp.159-178.另外,性别、种族、职业、文化程度等多种因素都会影响人们对机器人外观的态度,我们还需要更多深入细致的对比研究。

同时,机器人的外观并不是一个独立的因素,我们需要把机器人的外观与功能、工作环境等多种因素结合起来研究。机器人的外观、举止会深刻影响人们对机器人的认知,以及是否服从机器人指令的意愿。另外,人们通常希望机器人的外观和行为与其工作内容和环境协调一致。通过对127名来自不同年龄阶段、不同文化程度的调查对象的研究表明,人们希望在家里使用的机器人外观像动物,而在公共场所使用的机器人外观更像人。同时,机器人的功能与外观的关系也非常紧密,比如,虽然人们更喜欢动物型的家用机器人,但如果家用机器人的功能是私人助手的话,人们还是倾向于选择人型机器人。Lohse Manja, et al, “Domestic Applications for Social Robots,” Journal of Physical Agent,2008, Vol.2, No.2, pp.21-32.

因此,我们需要针对不同的使用对象、不同的机器人功能定位与应用环境,设计多样化的机器人外观。对于在公共场所使用的机器人,比如在博物馆、旅游景点的导游机器人,它需要面对各种不同的使用对象,这样的机器人的外观也应该尽可能地多样化。而且,要合理设计机器人与人类的相似程度,从而避免出现“恐怖谷”现象。

三、社会智能与道德能力

社会性是人类的基本属性,而且社会性在人类智能的发展中起着至关重要的作用。早在20世纪60年代就有学者研究发现,社会生活是灵长类动物智能产生的前提,并决定其智能的特点。也就是说,灵长类动物的社会生活为其提供了智能进化的环境。Jolly Alison, “Lemur Social Behavior and Primate Intelligence,” Science, 1966, Vol.153,No.3735, pp.501-506.我们可以把智能分为低级和高级两类,对过去曾经发生过的事情的模仿只需要低级智能,而只有在事件之间建立新的联系才可能发生的行为,则需要高级智能。灵长类动物拥有的高级智能是适应社会生活的复杂性而不断进化的结果。而且,起初是为了适应解决社会问题而发展起来的思维模式,又进一步丰富了人类和其他灵长类动物的行为。Humphrey Nicholas, “The Social Function of Intellect,” Bateson P and Hinde R, Growing Points in Ethology (Cambridge: Cambridge University Press, 1976), pp.303-317.这就是“社会智能假说”(Social Intelligence Hypothesis,以下简称SIH)。

不同学科对社会智能的界定有一定差别。从系统科学的角度看,人最重要的和最多的智能是在由众多个体构成的社会中进行各种活动时体现出来的,“协作”“竞争”等是人类智能行为的主要表现形式,这种社会智能也是人的社会思维涌现出来的群体智慧。载汝为:《社会智能科学》,上海:上海交通大学出版社,2007,第165页。这是从社会群体的角度看待社会智能。与系统科学的角度相反,心理学主要从社会个体的角度研究社会智能。从心理学的角度看,社会智能一般指一种正确认识自我与他人、与人和谐相处的能力,包括言语、情感表达、社会行为调整、社会角色扮演等多种社会参与技能。刘在花、许燕:《社会智力评估述评》,《上海教育科研》,2003年第11期。

可见,无论是从智能的起源、进化,还是从社会群体、个体的现实需要角度来看,社会智能的重要性都是不言而喻的。如果SIH是灵长类动物智能进化的一种重要因素,那么它也可能是智能人工物进化的基本原理,而不仅限于生物体。因此,我们应该在个体化的环境中研究机器人之间“一对一”的互动,机器人应该从个体互动中获得经验,彼此认识,从而建立个体间的“个人”关系。Dautenhahn Kerstin, “Trying to Imitate-a Step towards Releasing Robots from Social Isolation,” Gaussier P and Nicoud J, From Perception to Action Conference (Los Alamitos:IEEE Computer Society Press, 1994), pp.290-301.伦理道德的根本目的是协调与处理人际关系,所有的道德实践毫无疑问也都是在社会环境中进行的。人类的道德能力培养,是在家庭、学校和社会中,通过教育、模仿、实践与思考等多种途径发展起来的。对人类来说,伦理道德的社会性是不言而喻的。从社会智能理论与人类伦理的社会性来看,通过让人类与机器人,以及机器人之间进行互动,使机器人通过模仿人类的道德能力培养的模式来发展机器人的道德能力应该是一种基本途径。也就是说,我们需要通过研究社会现实中人类的行为与思考方式,把人工智能与人类伦理推理中的社会、心理等因素整合起来进行考察,从而使机器伦理与人类伦理更为接近甚至一致。

人类的道德推理不是一个单纯以功利为目的的过程,还包含了一些心理和文化的因素。对道德推理过程的研究发现,这个过程包含了合乎规范的结果与直觉判断之间的斗争。因此,有的学者倡导义务论的道德规则。比如,一个车队(那里无法使用飞机)正在给非洲某个闹饥荒的难民营运送食物,但此时你发现第二个营地有更多的难民。如果你让车队直接去第二个营地,而不是第一个,你可以营救一千人,但第一个难民营的一百人就会死亡。你会让车队去第二个难民营吗?从功利主义的角度看,应该让车队去第二个营地,但63%的人并不选择让车队改变方向。这种结果用功利主义是无法解释的。因此,美国南加州大学的德甘尼(Morteza Dehghani)等人试图提出一种可以连接人工智能路径与心理学路径的伦理推理模型,用以体现关于道德决策的心理学研究成果。Dehghani Morteza, et al, “An Integrated Reasoning Approach to Moral Decision Making,”Anderson Michael and Anderson Susan, Machine Ethics (Cambridge: Cambridge University Press, 2011), pp.422-441.

德甘尼等人的研究对于我们更准确地理解人类的伦理推理机制是有益的,但事实上人类的伦理推理得到的结果并不都是令人满意的,有时甚至会是错误的。社会学进路的机器人伦理研究试图让机器人的道德推理方式与社会中大多数人相一致,但社会学意义上的大多数人的伦理判断并不都是合理的。实际上,让机器完全按照人类的方式进行伦理推理其实并不是在所有情况下都是必要的。在伦理推理方面,我们完全可以期望机器比人类更理性,做出更为正确的判断与推理。即便如此,在发展机器人的道德能力时,人类的社会与心理因素还是必须考虑的。

从发展机器人的社会智能的角度建构机器人的道德能力,其必要性还具体表现在以下几个方面。首先,这是由人类道德的本质特征决定的。亚里士多德认为,适度是德性的特点,它以选取中间为目的。“德性是一种选择的品质,存在于相对于我们的适度之中。”亚里士多德:《尼各马可伦理学》,廖申白译,北京:商务印书馆,2015,第47-48页。也就是说,尽管人类拥有道德本能,但道德能力也是通过具体、反复的道德实践活动获得的。因此,通过具体的实践让机器人正确理解“适度”,也是建构其道德能力的必要手段。

第二,这是由人类道德生活的复杂性决定的。比如,尽管人们一般认为存在一些普遍性的道德原则,但是如何在具体的社会环境中进行应用,需要进行反复的道德实践;另一方面,道德原则总会有遇到例外的情况,原则与例外的严重冲突可能导致的所谓“道德困境”也一直是伦理学研究的热门话题,而道德困境的处理只能具体问题具体分析。

第三,通过社会智能的角度发展机器人的道德能力,也符合人工智能发展的基本趋势。目前,人工智能在规则比较明确的领域取得了巨大的成功,“阿尔法围棋”的强大能力就是有力的证明。但是,机器人在现实的社会生活环境中的灵巧性、适应性,跟人类相比还有很大的差距。要提高机器人的社会适应能力,机器人技术本身的发展进步固然是基础性的,但让机器人拥有更多的常识与社会智能也是至关重要的。让机器人在现实社会中学习掌握更多的关于伦理道德的常识与技能,是建构道德能力的关键因素。

第四,与从认知科学的角度发展机器人的道德能力的一致性。机器人伦理设计的认知科学进路主要是让机器人通过模仿现实社会生活中人类的道德认知,来建构机器人的道德能力。机器人模仿人类的道德认知,其核心内容就是根据社会智能的产生、发展及表现等方面的规律,使机器人在一定程度上模拟人类的社会智能。

四、人工情感与道德能力

人与人之间的情感是人类精神生活的重要组成部分,也是无可替代的。有学者认为,智能的人造物可以取代人的思维能力,尚不能取代人的情感。人的情感不应当由人造物来取代,不应当有“情物”。林德宏:《人与机器》,南京:江苏教育出版社,1999,第469页。不过,人类很容易对非人的物品和动物产生情感,有时这种情感的强烈程度并不亚于人与人之间的情感。不少研究表明,老人、儿童在与机器人互动的过程中会感到愉快、舒适,机器人在一定程度上确实可以满足他们的情感需要。从建构机器人的道德能力的角度看,赋予机器人一定的情感能力,是由道德与情感的密切关系决定的。一方面,情感影响人类的道德判断、道德行为。从伦理学的角度看,今天的社会伦理主要是一种以理性规则、道德义务为中心的伦理,但是,我们也要看到同情、怜悯和恻隐之心在人类道德生活中的基础性作用。何怀宏:《伦理学是什么》,北京:北京大学出版社,2015,第174页。休谟认为:“古代的哲学家们,尽管他们经常断言德性不外乎是遵奉理性,然而大体上似乎都将道德看作是由趣味和情感而派生出其实存。”休谟:《道德研究》,长春:吉林大学出版社,2004,第2页。他说:“在任何情况下,人类行动的最终目的都决不能通过理性来说明,而完全诉诸人类的情感和感情,毫不依赖于智性能力。”休谟:《道德研究》,长春:吉林大学出版社,2004,第129页。也就是说,在休谟看来,道德领域主要是情感,而不是理性在发挥作用,这也是情感主义伦理学的基本立场。斯宾诺莎(Baruch de Spinoza)说:“善与恶的知识不是别的,只是我们所意识到的快乐与痛苦的情感。”斯宾诺莎:《伦理学》,贺麟译,北京:商务印书馆,2013,第176页。

从认知科学的角度看,理智与情感不是两个独立的过程,情感在人类推理的过程中发挥着重要作用。费多益:《认知视野中的情感依赖与理性、推理》,《中国社会科学》,2012年第8期。现代认知神经科学证明了情感在道德活动中的重要作用。认知神经科学研究表明,情绪因素不仅参与了道德判断的全过程,还是道德判断中不可或缺的重要成分;有意识的认知推理过程和情绪启动的直觉过程共同作用促成了道德判断,认知与情绪是道德判断中难以分离的两个重要过程。谢熹瑶、罗跃嘉:《道德判断中的情绪因素》,《心理科学进展》,2009年第6期。从心理学的角度看,目前的道德情绪研究充分证实了情感在道德行为中的重要作用。王云强:《情感主义伦理学的心理学印证》,《南京师大学报(社科版)》,2016年第6期。另一方面,人类的道德判断通常以情感、行为等方式反映出来,比如人们对好坏善恶的不同反应,与人们的喜爱、厌恶等情感存在密切的联系,具体表现在人的心理状态、面部表情与外在举止等方面。

如果机器人能够识别情感,并表现出跟人类类似的丰富情感,可能更容易为人们所接受,这也是人工情感研究的基本目标。人工情感是利用信息科学的手段对人类情感过程进行模拟、识别和理解,使机器能够产生类人情感并与人类自然和谐地进行人机交互的研究领域。人工情感并不是简单地模拟人的某些情感表达方式和情感识别方式,而是为了使机器人具有像人一样的内在情感,真实地具有像人一样的情感表达能力、情感识别能力、情感思维能力和情感实施能力。魏斌,等:《人工情感原理及其应用》,武汉:华中科技大学出版社,2017,第25页。