第二节 机器人权利研究如何可能
在笔者看来,至少有以下四方面的原因可以构成机器人权利研究的可能性与合理性。
第一,来自动物权利研究的启示。关于动物权利的研究已有相当多的论著问世,其中美国北卡罗来纳州立大学哲学教授汤姆·雷根(Tom Regan)的著作影响颇大,他也是动物权利哲学的积极倡导者。雷根认为,动物(主要是哺乳动物)跟我们拥有一样的行为、一样的身体、一样的系统和一样的起源,它们应该和我们一样,都是生命主体(subject-of-alife)。所有的生命主体在道德上都是一样的,都是平等的。在《动物权利研究》一本书,雷根更为全面地论证了动物权利的方方面面,认为动物具有意识,具有固有价值,我们对动物负有直接义务,动物与人一样拥有特定的基本道德权利,等等。
动物权利的另一位著名倡导者辛格(Peter Singer)认为,动物可以感受痛苦与快乐,应该在平等原则的基础上承认动物的权利。他指出:“平等原则的实质是,我们对他者的关怀和利益考虑,不应当取决于他们是什么人,或者他们可能具有什么能力。”他认为:“不论这个生命的天性如何,只要大致可以做比较,平等的原则要求把他的痛苦与任何其他生命的相似的痛苦平等地加以考虑。”当然,平等的原则并不要求相同的对待或完全相同的权利,而是要求平等的考虑。
如果动物拥有权利具有一定的合理性,那根据同样的道理可以推出机器人也可以拥有某些权利。与动物相比,机器人最大的不同是,动物是天然的生命,而机器人是人类制造出来的。但是,根据目前机器人技术的现状与发展趋势,机器人在某些方面可以比人类更聪明,机器人将来也会比动物更像人类。既然如此,机器人拥有某些权利也具有一定的合理性。
第二,包括科技伦理在内的人文社会科学研究应该具有一定的超越性与前瞻性,而不是只针对科学技术与社会的现状进行反思。就技术伦理研究来说,如果总是基于技术及其效应的充分显现,以技术“事实”为基础而生成的技术伦理,总是滞后于技术及其效应,从而导致技术伦理对技术“匡正”的有效性大打折扣。当文化落后于社会物质条件的发展速度,就会产生所谓的“文化滞后现象”。为了在一定程度上避免“文化滞后现象”导致的负面效应,我们需要对可能出现的机器人技术及其社会影响做出某些前瞻性的考察,这也是“机器人权利”研究的理论依据之一。
事实上,科技伦理的目标之一就是对可能发生的科技活动及其效应给出建议或规范,这就内在地要求科技伦理研究必须具有一定的前瞻性与预测性。比如对克隆人的研究,我们不能等到克隆人在社会上大量出现之后才来研究克隆人的伦理问题,而是在克隆人可能产生之前,就进行针对克隆技术与克隆人的伦理问题研究。关于克隆人技术应用的社会风险、道德风险与克隆人的权利等问题的考察对于机器人技术的伦理研究也具有很大的参考价值。
第三,培养人类良好道德修养的必然要求。康德认为,动物没有自我意识,我们对动物没有直接责任。但是,康德同时也指出:“如果他不想扼杀人的感情的话,他就必须学会对动物友善,因为对动物残忍的人在处理他的人际关系时也会对他人残忍。我们可以通过一个人对待动物的方式来判断他的心肠是好是坏。”与康德类似,许多哲学家都批评对待动物的残忍方式,认为人类应该善待动物,这将有助于培养出人类良好的人性与道德品质。现有的研究成果表明:“一个人在年轻的时候残酷对待动物的方式常常与他成年以后对待人的暴力行为模式有联系。”这些思想完全可以应用到机器人身上。
人是感情动物,在与机器人密切相处之后很容易与其产生感情,这种场景在许多科幻小说和电影中经常可以见到。事实上,更细致的实验研究表明,随着机器人技术的发展成熟,机器人越来越像人,机器人会像动物或其他人一样影响人类;人类会倾向于把机器人看作真正的人,对机器人产生信任感,甚至建立起密切的感情联系。但是,在人与机器人可能产生的越来越多的互动以及感情联系中,一些不道德的行为亦会出现,比如对机器人的滥用。人们可能用那种对人类来说非道德的方式来对待机器人。研究表明,有人正在以各种方式滥用计算机人机交互技术,包括口头谩骂和对硬件进行物理攻击(physical attack)。更糟糕的是,这种技术有时导致的不仅仅是使用者的不满或愤怒的行为,它可能会促成更大范围的消极行为,这些行为不仅仅只针对机器,甚至可能会针对其他人。如果机器人拥有拒绝甚至反抗对其滥用的权利,那么在一定程度上可以减少甚至避免人与机器人交互过程中可能出现的不道德现象。
第四,机器人成为道德主体的可能性与特殊性。随着机器人越来越多地融入现代人的日常生活,特别是机器人的自主性、智能性程度不断提高,机器人的主体性问题逐渐突显出来。机器人伦理研究的实质,就是为了更好地处理人、机器人与社会之间的关系,使人与机器人和谐相处。从机器人伦理的角度看,智能程度较高,或者拥有自我意识的机器人可以独立做出伦理判断,它们在一定程度上具备了成为道德主体的基本条件。为了使机器人更好地履行道德主体的角色,赋予它们某些权利是必然之需。
但是,机器人作为人类的创造物,它们的行为显然需要受到人类道德规范的影响与制约。从这个角度看,机器人是人类道德规范的执行者和体现者,又属于道德客体的范畴。机器人伦理本质上是为了更好地保障人类的利益,赋予机器人某些权利也是服从于这个根本目的的,所以机器人的权利必然是受限的。如果我们把社会生活中的人称之为“完全的道德主体”的话,那么机器人就是“有限的道德主体”,这是研究机器人伦理的基本出发点。因此,机器人权利研究需要处理好倡导权利与限制权利这一对基本矛盾。
有学者认为,机器人不可能拥有权利,因为让机器人拥有权利面临着技术障碍和道德难关。从技术的可能性角度看,机器人的智能与人类的智慧不可同日而语,就此而言奢谈机器人的权利完全是无谓之举。从伦理学的角度看,机器人要想获得权利,面临着三道无可逾越的伦理难关:第一,机器人不可能与人类签订契约从而相互赋予权利;第二,机器人作为人类工具这一原初地位无法改变;第三,机器人并不拥有不容破解的内心秘密。
不可否认,囿于当前人工智能与机器人技术的局限性,使得机器人的智能与人类的智慧相比,确实还存在较大的差距。但同样明显的是,机器人的智能正在快速地发展进步,而与之相比,人类智慧的进化速度就差得太远了。就目前科技的发展速度,以及人类对智能生活的依赖与期待,我们几乎可以断定,机器人的智能与人类的智慧之间的差距会逐渐减少。所以,从技术的可能性角度看,思考一下机器人的权利并不完全是“无谓之举”。另外,“三道无可逾越的伦理难关”实质是以自然人为出发点的伦理问题,如果权利主体不仅仅限于自然人,伦理难关也就迎刃而解。比如,在法学研究中,有学者主张,应该承认法人的基本权利主体地位,法人应该享有一定范围的基本权利。
我们注意到,来自科学技术、法律、政治等领域的许多学者也颇为关注机器人权利问题,而且大多持支持的态度。对于反对机器人权利的主张,有法学研究者认为:“这一反对只不过是将限制的立场发挥到极致,核心在于保守的观念与对人工智能技术发展的悲观。一些保守的社会科学学者无法接受这一立场情有可原,毕竟科学技术的发展速度早已超出一般人的理解。”又如,高奇琦等人认为,尽管人类制造机器人的目的是为了让其更好地为人类服务,但是由于人类文明意识的发展以及道德感的增强,人类很可能将权利赋予机器人以及人工智能。中国工程院院士封锡盛认为:“智能机器人为了有效地服务社会和便于公众接受,应当拥有相应的权利保障,机器人要遵纪守法,也要有权利。”