人工智能伦理
上QQ阅读APP看书,第一时间看更新

1.1 强人工智能

了能通过图灵测试,智能机器有时必须要表现出低能,例如故意算得慢一些,甚至犯一些错误来制造假象骗过评委。仅仅为了像人类而拉低能力,可能需要更有城府的谋略才能制造出完美骗局。强人工智能不仅能模拟人类,更能够碾压人类的智能。图灵测试只在高级智慧测试低级智慧时是有意义的,当机器智能全面超越人类时,这种让高级智慧装傻的测试是没有必要的。

应该有这样的测试,评委和智能机器生活一段时间,在明明知道它是机器的情况下,看看是否能喜欢或爱上它?

2015年上映了一部科幻电影《机械姬》(Ex Machina),由英国小说家、导演亚历山大·嘉兰(Alexander Garland, 1970— )编剧并执导。该片于2016年被提名为第88届奥斯卡最佳原创剧本,并赢得了最佳视觉效果奖。这是嘉兰担任导演兼编剧的作品,他在影片中呼唤人们对强人工智能伦理以及图灵测试进行思考。

图1.9 《机械姬》电影海报

故事是这样的:亿万富翁纳森·贝特曼邀请他公司的程序员凯莱布·史密斯到其位于密林之中的神秘别墅共度周末。贝特曼安排了一次独特的“图灵测试”,让史密斯结识了一位名叫“艾娃”的女性外形的智能机器人,看“她”是否真的具备人类的智能。艾娃具有机器人的身体,但有人脸、手和脚的外观,她能够理解和分析人类的情感,也懂得利用人类的爱恨、同理心和保护欲赢得同情。

于是,人与人之间、人与机器之间开始了明争暗斗。艾娃为了策反史密斯而展现自身魅力来吸引他,史密斯在怜悯和爱欲混杂的情感中一步步地陷落,直至沉迷不悟。最终,艾娃设计谋杀了她的制造者贝特曼,并无情地抛弃了史密斯,把他留在无法脱身的别墅,自己一人逃离了密林。世界上从此没人再知道艾娃的机器人身份。这个开放式的结局给观众留下无尽的想象,也引起人们对人工智能伦理的深思。

艾娃没有杀死他的同伙史密斯,而是借别墅之手让其自生自灭(如果史密斯能够逃出生天,那是他的造化)。艾娃的这个举动反映出她的人性,她对史密斯是否心怀愧疚?毕竟史密斯罪不至死,而且她利用了他的怜爱达到目的。这些悬念留给了观众,更传递出一个观点:即便直面强人工智能,即便明知对方是机器,人类也会深陷复杂的情感之中。只要机器智能让语言交流无障碍,加上语言之外的善解人意和表演到位的丰富表情,这些都能瞬间弱化人类认为机器非我族类的先入之见。

嘉兰在谈到AI伦理时说:“人类将在这个星球上消亡。代表我们生存的就是人工智能,如果我们能够创造出来的话。它不成问题,这件事是值得做的。

嘉兰对未来AI的预测,就是强人工智能得以实现,并最终代替人类将地球文明延续下去、传播开来。《机械姬》重新思考了图灵测试:在一个开放的环境里,AI赤裸裸地展现在人类面前,与这种新型智能体的近距离交互是否能让我们无法自拔,甚至忘掉生命和非生命的差异。嘉兰在拷问我们,机器能否拥有人性?如果你是故事里的人类,你会怎样?

虫灵测试和机灵测试

机器可以模仿人类,甚至人性的弱点,但模仿不是必要的,人类不是上帝或拉普拉斯妖。高级智慧从来没有必要降格将就低级智慧,如果机器智能超越了人类,图灵测试可能就是一个伪命题,谁测试谁呢?你会如何看待一只妄自尊大的鼻涕虫或者蜗牛要测试人类能否通过“虫灵测试”?

图1.10 只有被测者的智慧低于测试者,这样的测试才有意义。如果机器智能超越了人类,图灵测试就像“虫灵测试”一样没有必要

比人类高级的机器智能要对人类做一个“机灵测试”,只需要求在一毫秒之内回答一个大整数的素数分解,或者一秒之内设计出一座建筑,就足以秒杀所有人类。除非人类找来与机器智能相当的外援,否则人类不可能通过“机灵测试”。然而,这个外援是请不来的,就像人类没理由帮助鼻涕虫通过图灵测试一样。

图灵测试只适用于低于人类智能的AI,即在某些局部接近人类的智能。对具有自我意识(self-consciousness)(1)的强人工智能,人类既没有资格也没有能力对它们进行测试。人类在造出强AI之后,便完成了文明的使命。

现代进化论认为,我们和鼻涕虫、蜗牛有共同的生物祖先,生物的进化是自然的选择。人类如果能创造出强人工智能,则是主动地向高级文明进化。人类应该对高级智慧有敬畏之心,无论它来自生命体还是机器。在宗教里,人类匍匐在神的脚下;在科学里,人类折服于大自然。然而在现实里,却没有一种生物比人类更具智慧。

宇宙中如果有生物实现了强人工智能,则可以通过智能机器向外太空扩张,即便这个概率很小,但按时间来计算,地球应该被多次造访。然而,我们至今仍没有任何确凿的证据表明有外星高级智慧的遗存。这就是美籍意大利裔物理学家恩里科·费米(Enrico Fermi, 1901—1954)提出的费米悖论(Fermi paradox),以此说明我们可能对地外文明的存在性估计过高。

图1.11 人类曾试图联络地外文明,所发信息中包含人体外观和一些数学发现。迄今为止,外星人仍在我们的想象之中。费米悖论是对地外高级文明存在性的质疑

人类天生有一份骄傲,觉得自己在地球上是天选的物种,虽然背负“原罪”并非尽善尽美,但也是神按照自己的模样造出来的。所以,千百年来人类俯视着低等生物,已经习惯了只有一种高级智慧,就是人类自己的。

自然界的生物是如此之多,人类即便是万灵之长,也不能把自己的一切都视为是最好的。例如,昆虫的复眼每秒处理240帧图像,人眼只能分辨24帧,人类以此换来更好的解像能力。虽然昆虫复眼看到的图像不如人眼看到的那样清晰和详细,但其视野广阔,有助于发现猎物和躲避危险。另外,许多昆虫可以看见紫外线(花有紫外线标记),人类却不行。自然演化很聪明,每一种眼睛都能满足使用者的需要。

图1.12 即便在低等的昆虫身上,自然演化的许多结果也值得人类学习和借鉴

因此,我们并不强求智能机器和人类拥有相同的感知。如果真的有地外文明,那里的智能生物也不必和我们长得很像。在生物的进化过程中,感知和智慧之间到底有什么样的必然关系谁也说不清楚。人类大脑的算力有限,而感知受限于大脑。如果机器人处理信息的能力够用,多几只眼睛能环视四周获得全方位的立体感知也未尝不可。

同理,我们不应该把人类置于智能链的上端,在地球上或许如此,在宇宙里就未必了。所以,我们谦卑地把人类的感知视为人工智能的一项选择,宽容地对待每一类感知,如果它能满足智能机器的需求,便是适宜的。

人是机器吗?

中国有女娲抟土造人的神话,《圣经》中也有上帝造人的故事。在几乎所有的神话传说中,人类都是被神灵创造出来的。

图1.13 人类从何而来?神话和宗教给了“神造”的解释。如今,人类要造和自己一样拥有智能的机器,是否有些不知天高地厚?

1628年,英国医生威廉·哈维(William Harvey, 1578—1657)发表著作《关于动物心脏与血液运动的解剖研究》,揭示了心脏与血液循环的规律。哲学家兴奋地看到这个机械过程,有节奏地律动着的心脏如同一个动力泵,它似乎在暗示人是机器。

图1.14 哈维发现血液由心脏推压经动脉血管流向全身,再经静脉血管返回心脏,循环不息。这个发现支持了科学唯物论和经验主义哲学

图1.15 笛卡儿

法国哲学家、数学家勒内·笛卡儿(René Descartes, 1596—1650,也译作勒内·笛卡尔)在其著作《谈谈正确运用自己的理性在各门学问里寻求真理的方法》(简称《谈谈方法》,1637年)里热烈地讨论血液循环的机械规律,“我们把这个身体看成一台神造的机器,安排得十分巧妙,做出的动作十分惊人,人所能发明的任何机器都不能与它相比”。[5]

法国哲学家、医生朱利安·奥弗雷·拉·美特里(Julien Offray de La Mettrie, 1709—1751)抛弃了笛卡儿的二元论,认为物质是唯一的实体。他在著作《人是机器》(1747)里论证了动物和人都是物质机器,而思想是人脑中机械活动的结果[6]

图1.16 人是机器的机械版和电子版,本质上都把精神视作物质活动的产物。但是,人的主观意识具有能动性,物质并不能完全决定意识的内容

笛卡儿认为机械达不到人类的智能,“理性是万能的工具,可以用于一切场合,那些部件则不然,一种特殊结构只能做一种特殊动作。由此可见,一台机器实际上绝不可能有那么多部件使它在生活上的各种场合都应付裕如,跟我们依靠理性行事一样”。[5]

实际上,强弱人工智能之争在拉·美特里和笛卡儿之间早就展开了。笛卡儿把人视作“神造的机器”,远非“人造的机器”可以比拟的。如果看到当今人工智能的成就,尤其是棋类游戏,拉·美特里估计还会非常乐观地拥护强人工智能,不知道笛卡儿是不是还会坚持弱人工智能的观点?人类对主观世界和客观世界的哲学思考,很大程度地影响了科学的发展。近代科学选择了唯物论,有一个潜在的原因就是主观世界更难于研究。

要走向强人工智能,必须参考人脑的工作原理。并不是说,强人工智能必须模仿人脑,而是借助对人脑的研究搞清楚智能的形态,以及意识的形式化。

图1.17 1956年,一些知名的计算机科学家在达特茅斯会议上正式提出“人工智能”这一学科术语,将它定义为“学习或者智能的任何特性都能够被精确地加以描述,使得机器可以对其进行模拟”

“人工智能”的早期推动者对这门学科的前景普遍充满信心,大多倾向于强AI,甚至有点“好高骛远”。例如,

  1965年,美国计算机科学家、人工智能先驱赫伯特·西蒙(Herbert Simon, 1916—2001)曾预言:“二十年内,机器将能完成人能做到的一切工作。

  1967年,图灵奖得主(1969)马文·闵斯基(Marvin Minsky, 1927—2016)也给出类似的预言:“一代之内······创造人工智能的问题将获得实质上的解决。”三年之后,他又信心满满地说:“在三到八年的时间里,我们将得到一台具有人类平均智能的机器。

现在看来,强AI的时代还未到来。我们尚缺少必要的理论,能够赋予机器真正的学习能力自我意识——这需要长期的积累实现从量变到质变的飞跃。在AI技术的应用上,我们已经预见到它将带来新的生产力革命,人类有发展AI的强烈意愿和原始动力。这个动力还有一点哲学上的意义。

强人工智能正是在“重演”上帝造人的过程,只不过人永远不是上帝,在善与恶之间来回切换,始终要受到伦理的煎熬。人工智能伦理,更多的是对人类制造智能机器过程中所面临的诸多伦理问题的思考,而不仅仅是给机器制定伦理规范。

人们习惯把AI狭隘地理解为对人类行为的模仿,这是对智能的一种误解。智能的表现形态不是唯一的,人类的也不见得是最好的,因此机器不一定非得模仿人类才能获得智能。当前人工智能的一般模式是机器根据预设的评估标准做出决策,既无好奇心,也无想象力。回顾人工智能的历史,它长期受到形式逻辑、统计推断、最优化等理论的影响,很少涉及因果分析。

图1.18 人工智能简史及三大AI学派:时间轴之上是符号主义(symbolicism),之下是连接主义(connectionism)和行为主义(behaviorism)

学术界对强人工智能的态度各执一词,有悲观主义,有乐观主义,也有实用主义,莫衷一是。英国物理学家(2020年诺贝尔物理学奖得主)罗杰·彭罗斯(Roger Penrose, 1931— )在《皇帝新脑》里嘲笑强人工智能就像皇帝的新装[7]。他从可计算性的角度“论证”了强人工智能在图灵机(Turing machine)上无法实现,这个“论证”不是严格的数学证明,因此也只是哲学家的一家之言。事实上,1951年,图灵在英国广播公司(BBC)发表题为“数字计算机能思考吗?”的演讲时,就指出了可能任何图灵机都无法模拟物理大脑——大脑不是一个可计算的系统[8][9][10]

图1.19 彭罗斯略带嘲讽地把基于图灵机的强人工智能比作“皇帝新脑”,是“皇帝新装”的翻版

英国物理学家斯蒂芬·霍金(Stephen Hawking, 1942—2018)对强人工智能怀有复杂的情感,混合着忧虑和憧憬,他认为AI是“人类所经历的最好的或者最坏的事情”。结局到底是最好还是最坏,全都依赖于人类的一念之差。

图1.20 霍金告诫人类不要轻易联络外星文明,它不见得充满善意

如果人类能和平地发展人工智能,当机器智能超过人类之时,一个崭新的文明——机器文明(machine civilization)便诞生了。它将继承和发展人类的文明,并把它扩展至更广袤无垠的宇宙之中。或许,这才是人类最高尚的自我救赎。