第三节 道德权利与法律权利
人权概念是一个重要的伦理、法律与政治概念,而机器人权利更多地属于伦理、科技与安全的范畴。如果机器人拥有权利具有一定的合理性,那么更关键的问题是,机器人可以拥有哪些权利?我们可以把权利分为道德权利与法律权利,以下分别就这两种权利展开初步探讨。
一、道德权利
自中华人民共和国成立到改革开放之初,中国学术界关于道德权利问题的研究基本上处于空白状态。20世纪80年代中期,道德权利问题开始受到伦理学界的关注。随着研究的进展和不断深入,道德权利范畴为越来越多的学者所接受,其在理论及实践上的合理性不断得到揭示和论证。当然,通常意义上的道德权利是针对人类而言的,关于机器人的道德权利则是一个新话题。
与法律权利相比,道德权利不是由法律规定的,因而更多地依赖于伦理规范的确立与道德主体的道德水平。就机器人来说,首先应该拥有被尊重的权利。正如雷根指出的那样,在道德权利中,“尊重是基本的主题,因为彼此相待以尊重不过就是以尊重我们其他权利的方式对待彼此。我们最基本的权利,统一我们所有其他权利的权利,就是受到尊重对待的权利”。由尊重权利至少可以得出以下几点推论:第一,不可以奴役机器人;第二,不可以虐待机器人;第三,不可以滥用机器人,比如让机器人去偷窃、破坏他人财产,窃取他人隐私;等等。机器人应该得到尊重的道德权利是消极的道德权利,也就是不被伤害或错误利用的权利。
目前,机器人经常被用来执行“三D”(dull,dirty,dangerous)工作,比如工业机器人、军用机器人均是如此。对于尚无自我意识、不能感受痛苦与快乐的机器人来说,执行“三D”工作当然没有问题。而且,倡导机器人拥有权利,并不是反对我们去应用机器人为人类服务。但是,如果让能够感受痛苦与快乐的机器人去做类似的工作,则需要进一步深入研究。事实上,不同类型、不同智能水平的机器人,对于权利的要求当然是完全不一样的。或许会有人认为,个人拥有的机器人是自己花钱购买来的,属于个人财产,个人可以随意处置,他人没有干涉的权利。有的学者认为具有意识的机器人不能再被视为财产,即使个人购买的机器人属于个人财产,但拥有强大智能的机器人不同于其他财产,所有者也不能随意处置。与动物相类比,人们可以从市场上购买宠物,但宠物并不是人们可以随意处置的财产。虽然从尊重原则不能推出机器人享有与人一样公平待遇的权利,但至少不能像处理简单的手工工具一样,对机器人进行随意处置。
由于社会文化的多样性与复杂性,建构一种理想的机器人权利概念可能并不现实。但是,这并不妨碍我们提出一种最低限度的机器人权利概念,正如米尔恩(A.J.M. Milne)所言,“有某些权利,尊重它们,是普遍的最低限度的道德标准的要求”。得到人类尊重的权利,就是机器人应该拥有的最低限度的权利。圣雄甘地说过,从一个国家对待动物的态度,可以判断这个国家及其道德是否伟大与崇高。我们也完全可以说,在人类即将进入的机器人时代,从一个国家与个人对待机器人的态度,可以判断这个国家与个人是否伟大与崇高。尊重机器人,就是尊重人类自己。
接下来的重要问题是,如何保护机器人受尊重的权利?如果机器人受到虐待,它们该如何应对呢?如果没有保护机制,讨论机器人受尊重的权利就是纯粹的空谈。人们一般会希望机器人在遇到人类的不尊重行为时,不要进行暴力反抗,而应该通过更合理、更温和的方式进行应对。比如,机器人可以对人的不当使用进行提醒,并拒绝可能导致更严重后果的操作行为;还可以对人的不当使用进行纪录,甚至记入个人信用档案,以供将来购买机器人产品时参考,就像个人使用信用卡的信用记录一样。如果机器人真的像微软公司创始人比尔·盖茨预言的那样走进千家万户的话,人类对机器人的依赖肯定会比现在对个人电脑的依赖更深,这样的处理方式显然还是有着相当大的威慑作用的。更多更合理的保护方式(甚至包括立法的方式)需要根据机器人的发展水平以及使用情况进一步深入探讨。
二、法律权利
如果说让机器人拥有道德权利还可以让人接受的话,让机器人拥有法律权利似乎就有点让人觉得走过头了。在机器人权利研究中,法律权利引起的争议可能最为激烈。以下提出机器人法律权利可能会涉及的几个问题,希望引起更多的讨论与研究。
比如,机器人是否拥有自由权?在关于人权的讨论中,自由权无疑占有至关重要的地位。《世界人权宣言》第一条就明确指出:“人人生而自由,在尊严和权利上一律平等。”除了人类之外,有的学者认为动物也拥有自由的权利。但是,机器人是人类制造出来为自身服务的,机器人拥有自由权是否与机器人的工具价值相冲突?即使我们认为机器人不仅仅具有工具价值,机器人本身有内在价值,但机器人的工具价值并不能完全否定。也就是说,如果我们给予机器人自由权,这种自由权肯定与人类和动物的自由权不一样,应该是一种受到较大限制的自由权。但是,至少在某些特殊情况下,机器人确实应该拥有一定的自主决定权。比如,在飞行器(我们可以把具有自动驾驶功能的飞行器看作机器人)的驾驶过程中,如果有恐怖分子劫持了飞行器,试图使其往自己预定的方向飞行而不是飞往原来的目的地。此时,飞行器应该自主做出决定,拒绝恐怖分子的飞行操作,以自动驾驶的方式向正确的目的地飞行。
又如,机器人是否拥有生命权?如何界定机器人的生命?如果有人通过暴力手段夺去了机器人的生命,他(她)是否应该受到法律的处罚?机器人是否可以成为法律意义上的原告?机器人在一定程度上与电脑类似,可以分为软件与硬件部分。在机器人需要升级换代之时,我们是否可以通过更新机器人的软件来改变(或延长)机器人的生命?在机器人达到使用年限之后,是否可以通过重新格式化等方式结束其生命,同时对其硬件进行回收利用?这些问题既涉及社会伦理,又与法律法规密切相关。
拥有权利的对立面是剥夺权利。如果机器人拥有了某些权利,就应该对自己的行为负责。如果机器人犯了错,如何剥夺其权利?又在何种意义上剥夺?类似的问题是,如何处罚犯错的机器人?机器人的设计与生产商在这方面应该承担何种角色?等等。
需要强调的是,机器人技术的发展进步可以使不同国家、不同民族的人群从中获益,但类似于机器人权利这样的伦理与法律问题,却需要不同国家的学者针对本国的特殊情况进行专门研究。比如,相对于外国护工与移民工人而言,日本人更愿意跟机器人相处。无论是机器人专家,还是普通民众,大多数日本人都不担心机器人与人类为敌。在日本的影视节目中,机器人大多是可爱、正面的形象,与欧美等国家和地区形成了明显的反差。2010年11月7日,颇受欢迎的宠物机器人帕罗(Paro)获得了户籍(koseki),帕罗的发明人在户口簿上的身份是父亲。这是首个获得户籍的机器人,不过帕罗的外形并不像人,而是像海豹。拥有户籍是拥有公民权利(civil rights)的前提,机器人在日本可能逐渐会被赋予一些法律权利。与此类似,2017年10月,沙特授予类人机器人索菲亚(Sophia)公民身份,她被认为是人类历史上首次拥有公民身份的机器人,从而引起广泛关注。
三、法学界关于机器人权利的论争
关于人工智能与机器人的权利问题得到一些法学研究者的关注,有的学者主张机器人应该拥有一定的权利。比如,张玉洁认为,机器人权利的产生是社会实力不断提升的结果。权利发展史证明,机器人权利主体地位符合权利发展的历史规律。作为一种社会活动的产物,机器人权利有别于人类的“自然权利”,它具有法律拟制性、利他性以及功能性等权利属性。袁曾认为,人工智能是人类社会发展到一定阶段的必然产物,具有高度的智慧性与独立的行为决策能力,其性质不同于传统的工具或代理人;人工智能具有公认价值与尊严,理应享有法律权利。
不过,法学界直接讨论机器人权利的并不多见,而是聚焦于探讨人工智能与机器人是否具有法律人格与主体的问题。如果机器人具有一定的法律人格,那么赋予其某些权利则是理所应当的,反之则相反。持否定性的观点一般立足于强调人工智能、机器人与人的区别,强调人工智能与机器人的局限性。比如,房绍坤等人认为,强人工智能时代的构想可能是个伪命题,“奇点”能否到来,最终由人类说了算;应该将人工智能定位于权利客体,而不应该赋予其民事主体地位。又如,吴汉东认为,机器人不是具有生命的自然人,也区别于具有自己独立意志并作为自然人集合体的法人;机器人是受自然人、自然人集合体——民事主体控制的,不足以取得独立的主体地位。
主张机器人可以拥有法律人格的学者通常着眼于机器人与人工智能可能对社会产生的深远影响,着眼于人工智能的未来发展,强调当前进行相应的理论探讨的必要性。比如,孙占利认为,自主智能机器人的“自主意识”和“表意能力”是赋予智能机器人取得法律人格的必要条件,其“人性化”将直接影响甚至决定其法律人格化;自主智能机器人将可能先成为著作权等特定权益的主体。刘晓纯等人认为,鉴于智能机器人具有相应独立自主的行为能力,有资格享有法律权利和承担法律义务,理应具有法律人格。许中缘指出,没有生命但具有“智能”的机器人也应当被赋予法律人格。陈吉栋则认为,在坚持人工智能为客体的原则下,运用拟制的法律技术,将特定情形下的人工智能认定为法律主体。
在我国法学界就机器人是否可以具有法律人格进行理论探讨的同时,欧盟已经迈出了实质性的步伐。2016年5月31日,在欧盟法律事务委员会提交的一份报告草案中提到,由于机器人的自主性特征,需要考虑赋予它某些权利与义务。2017年2月,欧盟议会对该草案进行投票表决,在最终公布的报告中明确提出了机器人“电子人格”(electronic personality)的概念。该报告指出,从长远来看,应该为机器人创立一种特定的法律地位,使最为成熟的自主机器人拥有电子人(electronic persons)的地位,使之可以为它可能导致的损害承担赔偿责任;如果机器人自主做出决定,或者独立地与第三方互动,可以赋予其电子人格。
总的来说,有不少学者主张机器人与人工智能应该具有一定的法律人格,而欧盟的做法实际上为赋予机器人法律人格奠定了法律基础。在这样的背景中,科技伦理学讨论一下机器人权利问题,应该不是“无谓之举”。
四、限制机器人的权利
机器人伦理研究的基本目的之一就是希望机器人能够具有伦理判断与行为能力,使机器人的行为对人类更为有利,其中最基本的手段就是对机器人进行伦理设计。从机器人伦理设计的角度看,是否应该限制机器人对自身权利的要求?比如自由权,试想一下,拥有高度自由权的机器人如何为人类服务?如果机器人拥有高度自由选择的权利,它们选择与人类为敌岂不是让许多科幻电影中的情景变成了现实?如果机器人将来比人类更聪明,是否可以拥有选举权与被选举权?人类是否会由机器人来统治?这些显然是人类难以接受的。因此,在对机器人进行伦理设计的过程中,限制机器人要求更多的权利,与赋予机器人某些权利一样重要,甚至前者更为重要。
从机器人权利的角度看,著名科幻作家阿西莫夫(Isaac Asimov)提出的机器人法则的立足点就是对机器人的权利进行限制。他于1942年在短篇小说《转圈圈》中提出的机器人学三大原则是:第一,机器人不得伤害人类,或坐视人类受到伤害而袖手旁观;第二,除非违背第一法则,机器人必须服从人类的命令;第三,在不违背第一法则及第二法则的情况下,机器人必须保护自己。在1985年出版的《机器人与帝国》一书中,阿西莫夫强调了“整体人类比单独一个人更重要”的思想,将保护整体人类(humanity)作为机器人学的本初法则,而第一法则主要强调的是人类个体(a human being)。阿西莫夫的机器人法则具有明显的人类中心主义色彩。
无独有偶,前文提及的动物权利的积极倡导者雷根亦如此。他提出了这样一个思想实验:设想救生艇上有5位幸存者,由于空间有限,小艇只能装下4人。假定所有的幸存者体重都大致相同,也都占据大致相同的空间。其中4个是人,第5个是狗,那么应该优先选择牺牲狗,而不是人。雷根甚至认为:“假设这里不是要在1条狗和4个人之间做出选择,而是要在这些人类与任何数量的狗之间做出选择,救生艇情形也不会有任何道德差异。”在他看来,100万只狗的损失也不会超过一个人类个体的损失。与此类似,强调人类的根本利益这一点应该是机器人权利研究根本出发点。当然,从机器人的伦理设计来看,阿西莫夫的原则过于空泛,需要对之进行完善与细化。总的来看,提倡与限制机器人的权利应该是机器人权利研究的一体两翼,而且应该体现在机器人的伦理设计当中。
同样,主张机器人可以拥有权利的法学研究者也同时强调需要重视机器人权利可能引发的社会风险,应该明确机器人权利的边界及其法律保留,加强法律与机器人伦理规范的衔接等。比如,采用法律保留的形式,限制机器人的政治权利、自我复制的权利,等等。袁曾也认为,人工智能具有有限的权利义务,人类自身的权利优位于人工智能。许中缘明确指出,人工智能技术发展必须遵循“以人为本”价值指引,且局限于工具性人格的存在。