第三节 主要障碍与可能的解决途径
由于人类道德行为的复杂性以及当前科学技术发展的局限性等原因,使得发展机器人道德能力面临着诸多障碍。
一、伦理理论选择的困境
伦理学是一门古老的学科。从总体上说,传统的西方伦理学可以划分为三大理论系统,即理性主义伦理学、经验主义伦理学和宗教伦理学。理性主义伦理学通常尊奉整体主义和理想主义的道德原则,强调人类道德关系和行为的共同性与理想性。经验主义伦理学一般都主张从人的感觉经验中寻找人类的道德起源、内容和标准,往往坚持以个体主义或利己主义为基本道德原则。19世纪中下叶以来,西方伦理学经历了一个从古典到现代的蜕变,也就是传统理性主义向现代非理性主义的转折,传统经验主义向现代经验主义的转折,传统宗教伦理向现代宗教伦理学的转折。中国的伦理思想也经历了一个从古代到近现代的转变过程,历史上有多种流派此起彼伏,理论形式与西方也存在一定的差别,尽管中西方伦理学研究的对象基本上是一致的。
面对古今中外形形色色的伦理流派与理论,对于机器人伦理来说,应该选择何种伦理思想作指导?比如,伦理学的功利主义强调人类道德行为的功利效果,而义务论则强调“义务”与“正当”,这两种理论倾向是相互对立的。在机器伦理中,功利主义与义务论都有各自的支持者。美国佛罗里达国际大学的格劳(Christopher Grau)讨论了在机器人伦理当中实行功利主义的推理模式是否合理的问题。他把机器人与机器人的互动,和机器人与人类的互动区分开来,认为两者应该遵循不同的伦理原则。机器人与机器人之间应该以功利主义的伦理哲学为主导,机器人是为人类服务的,它们可以没有自我意识,为了更大的益处可以牺牲自我。但是,在机器人与人类的互动过程中,不能以功利主义为主导原则。为了多数人获得更大的益处,功利主义理论允许不公平,允许侵犯某些个人权利,这是伦理学家普遍承认的功利主义的不足之处。在机器人与人类相互作用的过程中,必须考虑正义与权利的问题,以功利主义为主导原则的机器人不能作为人类的伦理顾问。如果人类需要开发功能更强大的机器人,可能需要不同的伦理标准,但我们应该对创造那种拥有与人类相似的道德地位的机器人保持高度警惕。而且,力量越强大,责任就越重大,创造拥有强大力量的机器人也给人类带来了更大的责任。
美国特拉华大学的鲍尔斯(Thomas M. Powers)讨论了一种康德式机器(Kantian machine)的可能性。与格劳强调功利主义伦理思想所不同的是,鲍尔斯认为康德(Immanuel Kant)的义务论伦理思想有一定的合理性。义务论强调行为的理性及其逻辑蕴涵,关注人的行为规则,而不是行为的功利结果。康德是著名的义务论者,他认为存在一种绝对命令,由它产生行为规则,也就是说,绝对命令以一种纯粹形式的方式发挥其作用。基于规则的伦理理论很适合机器伦理的实践理性,因为它为行为制定出规则,而规则大多易于在计算机上实现。因此,康德的绝对命令为机器伦理提供了一种形式化的程序。鲍尔斯详细探讨了康德的形式主义伦理学应用于机器伦理的可能性及其挑战。不过,鲍尔斯虽然采用的是康德的义务论,但他更看重的是康德伦理思想所具有的形式化特点。其实,对于不同伦理理论的选择,抽象的讨论固然是必要的,但结合具体的领域与场景进行考察可能更具有针对性。
从理论上讲,似乎每一种伦理理论都有其合理性与局限性,而且伦理思想跟不同的社会文化、经济状况等因素联系颇为紧密。因此,要为机器人寻找一个完善的、能够解决所有伦理困境、让所有人都满意的伦理理论完全是不可能的。当然,这并不是伦理相对主义的表现。因为伦理相对主义认为不存在正确的伦理理论,伦理无论对于个人还是社会都是相对的。大多数伦理学家都拒斥伦理相对主义,因为它使得我们无法批判别人的行为。
尽管寻找一个普遍适用的伦理理论是不可能的,但伦理学家仍然相信确实存在大家都认为是错误的行为,比如奴役和虐待儿童都是不对的。大多数伦理学家也相信,原则上对所有的伦理困境来说都存在正确答案,而且,对于一些有争论的领域,我们可以尽量避免机器人自主做出决定,而由人类来抉择。更重要的是,在特定的案例与情境中,什么是伦理上可以允许的,什么是不可以允许的,人们一般可以达到广泛的一致。而且,人们总是在某个具体领域中使用机器,在某个特定领域之中讨论哪些是伦理上可以接受的,哪些是不可以接受的,相对于寻找一个普遍适用的伦理理论而言要容易得多。也就是说,虽然在机器人伦理中找到普遍适用的伦理理论与规则有相当的困难,但具体到某个技术领域,从技术操作和机器人功能的角度看,确实存在着某些可以明确界定的伦理原则。对工程师和科学家来说,可以把这些伦理原则理解为某种限制。就大型客机来说,客机可以拒绝飞行员明显是错误并可能导致严重后果的操作,并采取进一步措施,比如及时向地面指挥中心报告,并转为自动驾驶等。
二、哲学语言的模糊性与计算机程序的准确性之间的矛盾
在确定某些伦理原则之后,要真正在机器人身上实现,还需要做大量的工作。许多伦理学原则与概念内涵丰富,比如尽量减少伤亡、不能虐待、战争中不伤害平民等。如何在计算机程序中界定“伤亡”“虐待”等术语,显然并不是那么容易的。计算机程序对准确性要求很高,要使机器人伦理真正得以实现,这些基本的术语究竟意味着什么,必须给予清楚界定。
如何在计算机当中实现伦理规则,这是哲学家、计算机科学家需要思考的关键问题。逻辑学虽然属于哲学学科,但与其他哲学的分支学科相比,逻辑学与计算机科学关系更为紧密,甚至可以扮演伦理学与计算机科学的中介角色。有三种逻辑及其混合模式可能会起到关键性的作用,即道义逻辑、认知逻辑与行为逻辑。道义逻辑由著名逻辑学家冯·赖特(von Wright)于20世纪50年代创立,主要研究义务、许可以及禁止的逻辑,已经有数十年的研究历史,在计算机科学中有广泛的应用;认知逻辑是关于知识与信念的陈述逻辑,同样在计算机科学中有广泛的应用;行为逻辑关注行为陈述的逻辑属性,其研究历史较短,但已经取得引人瞩目的进步,不过在计算机科学中的应用还不太多。这三种逻辑形式原则上为在计算机软件中实现伦理理论提供了理论工具。美国伦斯勒理工学院的阿寇达斯(Konstantine Arkoudas)和布林斯约尔德(Selmer Bringsjord)等人论证了道义逻辑应用于机器伦理的可能性。更进一步,他们认为道义逻辑可以对道德准则进行形式化,从而保证机器人的行为合乎道德规则。
另外,在伦理学的分支学科中,元伦理学致力于使伦理学成为一门严密的科学,关注对伦理概念、术语、判断等进行严格的逻辑分析。因此,元伦理学与逻辑学关系颇为密切。对于计算元伦理学(computational metaethics)应用于机器伦理的可能性,已有学者进行了初步的尝试。从元伦理学的角度对不同的伦理准则与推理方式进行分析,探讨在计算机当中实现的可能性与具体途径,显然还有大量的研究工作要做。在元伦理学的发展历程中,由于其研究脱离道德实践、注重逻辑分析等特点曾受到一些学者的质疑,但是,机器人伦理的勃兴有可能为元伦理学的研究注入新的活力。
同时,如何通过计算机程序实现某些伦理理论,学者们已经做出了初步尝试。比如,美国哈特福特大学计算机专家迈克尔·安德森和康涅狄格大学哲学系教授苏珊·安德森等人开发了两种伦理顾问系统,一个是Jeremy——基于边沁(Jeremy Bentham)的行为功利主义(Act Utilitarianism),另一个是W.D.——基于罗斯(William David Ross)的“显而易见的义务”(prima facie duties)理论。系统程序实现了这两种伦理理论的核心算法,其目标是从一系列的输入行为中判定伦理上最正确的行为,并做出相应的评价。实验表明,两个顾问系统都直截了当地实现了它们各自的伦理理论。当然,安德森等人的研究还是比较初步的,两个伦理顾问系统对伦理困境的深入细致的分析还存在一定的困难。但是,这项研究毕竟是在机器中实现伦理理论的良好开端。
又如,美国卡内基梅隆大学的麦克拉伦(Bruce M. McLaren)设计了两种伦理推理的计算模型,这两种模型都是基于案例进行推理,体现的是所谓决疑术(casuistry)的伦理方法。第一种模型是“讲真话者”(truthteller),该模型面对的是一对伦理困境,从伦理和实际的角度对案例之间的显著异同进行描述。另一个模型是SIROCCO,用以处理单个的伦理困境,然后查找其他的案例,以及可能与新案例相关的伦理原则。为了检验“讲真话者”比较案例的能力,专业伦理学家对其程序运行结果进行打分。伦理学家从合理性(reasonableness)、完备性(completeness)、语境敏感性(context sensitivity)三个方面从1分(低)到10分(高)进行评价。结果显示,五位伦理学家的平均分为:R=6.3,C=6.2,CS=6.1,另外两位研究生给出的评价则更高。这样的结果表明,“讲真话者”在是否应该讲实话的困境中进行的比较是较为成功的。
SIROCCO是探索决疑术的第二步,它尝试将普遍原则与案例的特定事实联系起来。SIROCCO的设计目标是,分析新的案例,为人类推理提供基本信息,能够回答伦理问题,并为其结论进行论证。实验表明,SIROCCO得到的结果比其他方法更为精确,是一个可行的伦理推理伙伴(companion)。但是,麦克拉伦认为,他设计这两个模型并不是为了让它们做出伦理抉择。虽然研究结果是做出了伦理决定,但做出最终的抉择是人类的义务。而且,计算机程序做出的决定过分简化了人类的义务,并假定了“最佳”伦理推理模式。他强调,他的研究只是开发一些程序,为人类面临伦理困境时提供相关的信息,而不是提供完整的伦理论证和抉择。
尽管已经有不少学者设计出了一些计算机程序,在一定程度上也可以实现预期目标。但是,学者们大多数都认为自己的研究成果只是阶段性和探索性的,对于真正完满地解决实际问题还有较大的差距。事实上,学者们在设计程序的过程中所依据的基本理论、预期目标与最终结论都存在较大的差异。而且,现有的研究主要是关注于伦理推理过程,而且设计的理论模型总的来看都比较简单,更何况伦理推理模型的结果如何通过机器人具体地展现出来还需要更详尽的研究与试验。
三、人工情感的建构
前述提及人工情感在机器人道德能力建构中的重要作用,那么建构人工情感是可能的吗?如何建构人工情感呢?首先需要强调的是,尽管情感在人类的道德生活中具有基础性地位,但较低层次的机器人伦理可能并不需要情感的因素。瓦拉赫等学者根据自主性(autonomy)和伦理敏感性(ethical sensitivity)两个维度,从低级到高级将机器人伦理分为“操作式道德”(operational morality)、“功能式道德”(functional morality)和“完全道德行为”(full moral agency)等三个层次。操作式道德属于工程伦理的研究范畴,即工程师自觉地用他们的价值观影响设计过程,并对其他有关人员的价值观保持敏感性。因此,操作式道德主要控制在工具的设计者和使用者手中。功能式道德领域包括具有高自主性但伦理敏感性低的系统,或者是低自主性但伦理敏感性高的系统。自动驾驶系统属于前者,人们相信复杂的飞行器可以在各种情况下安全飞行,不需要人类较多的介入。
现有的飞行器自动驾驶系统的确是高度自主性,但同时伦理敏感性较低的系统,但是提高该系统的道德敏感性从技术的角度上讲并不困难。比如,为了避免马航失联航班或“9·11”恐怖袭击之类的事件,让自动驾驶系统对擅自改变航线、飞跃某些禁飞区等事件保持高度的敏感性,并采取某些应急措施,就现有的技术而言完全是可以做到的。另一方面,即使人类的道德判断与情感密不可分,但实际上人类的情感对道德判断的影响并不完全是正面的,甚至有可能是负面的。较低层次的机器人伦理如果没有感情的投入,可以做到更为客观和理性。对于航班安全性的判断而言,客观与理性是必需的,并不需要情感的涉入。对于儿童看护机器人或助老机器人来说,其机器人伦理可能需要更多的情感因素,这有待于机器人技术的进一步发展进步。
其次,我们可以从计算主义的角度看人工情感的可能性。一般都认为机器虽然擅长快速计算,但对于情感问题却无能为力。比如,林德宏认为:“人之情,既是对客观世界的反映,又是主观的内省。人的感情的变化没有固定的模式,具有很大的不确定性。感情是人的最复杂的要素。”不过,从计算主义的角度看,不仅大脑和生命系统是计算系统,而且整个世界事实上就是一个计算系统。也就是说,情感、意识等一般认为只有人类才具有的特质,也可以在机器身上得以实现,只不过是实现程度或何时能够实现的问题。计算主义的观点得到不少学者的支持,也引起了相当多的争议,计算主义的支持者对一些引起争议的问题也做出了回应。虽然计算主义可能存在一定的缺陷,但以此为基础的人工智能研究取得的成果说明它确实具有一定程度的合理性。我们相信,随着认知科学和人工智能的进一步深入发展,在机器中模拟人的感情并不是天方夜谭。
第三,基于行为主义的人工情感的可能性。目前关于人工情感的研究大多是基于行为主义的思想,也就是让机器人表现出某种行为,使人们认为机器人拥有某种情感。正如情感计算的提出者皮卡德(Rosalind Picard)所说的那样,“如何识别一个人的情感状态呢?根据他们的脸、他们的声音、他们的步伐或其他能传达他们感觉的姿态和行为举止。”由于这种表现只是机器人的外在特性,与机器人的内在状态无关,所以有的学者认为这是虚假的情感,甚至是一种欺骗,是不道德的。不过,人类对情感的识别主要是基于他人的外在神态与行为,我们无法读取他人的内心状态。从另一个角度看,人们为了合理地说明某个实体(entity)在给定社会环境中的行为,通常会在观察的基础上赋予它认知或情感的状态。
里夫(Byron Reeves)与纳斯(Clifford Nass)甚至认为,人们像对待真实的人那样对待电脑、电视与新媒体,即“媒体等同于真实生活”。通常关于媒体的研究总是关注于人们经验到的信息什么是真的,什么是假的。比如,计算机是否真的拥有智能?电视可以真正拥有一种社会角色吗?然而,诸如此类的问题却忽略了一个重要的事实,即那些像是真的东西通常比确实为真的东西更具影响力。也就是说,与其关注机器人是否拥有表现外在情感的内部状态,还不如关注人类对机器人情感的认知。
当然,随着神经科学、认知科学研究的深入,我们可以在对人类情感的内在机制全面认识的基础上,开发出跟人类类似的、具有与情感相关的内在状态的机器人。有学者认为,把没有意识体验的行为看作情感是一种没有感觉(feeling)的情感,它无法区分行为的哪些方面是情感,哪些不是,而且也无法使我们建立一种情感的意识体验理论。感觉是人类情感的意识体验的一个重要方面,我们应该以建立一种拥有感觉能力的系统为起点,建构可以表现复杂情感的能力,以及表现灵活的、价值驱动的社会行为的能力。
我们可以把基于行为主义的人工情感称为“初级的人工情感”,即使这种情感只是模仿人类情感的外在表象,也是非常有意义的,事实上这正是许多科学家正在进行的研究内容。拥有内在状态、与人类产生情感机制类似的人工情感,可以称之为“高级人工情感”。初级人工情感通过人类情感的外在行为表现模拟和识别情感,而高级人工情感研究方向恰好相反,是由机器人内部状态产生情感,由情感来引发各种外在行为。事实上这两种研究方向都是必要的,亦不矛盾,两者的研究成果可以相互借鉴。
为了更好地建构机器人的道德能力,我们需要深入研究情感与道德判断之间的具体机制。此外,我们还需要对人与机器人之间的情感互动进行评价。研究表明,采用人与人之间的情感评价模型来对人与机器人之间的情感进行评价可能是不够的。