关于未来的答案系列套装(全10册)
上QQ阅读APP看书,第一时间看更新

当你看见一个东西时,你会说:“为什么?”当我梦见了根本不存在的东西时,我会说:“为什么不呢?”

萧伯纳,《千岁人》

机器不会把人从自然的伟大问题中隔离出来,它只会让人更加深陷其中。

安托万·德·圣埃克苏佩里,《小王子》作者

科学史上,伟大的发明家们总是知道,现象的表现不过是事实的另一种不同序列,不过是机器中无处不在的幽灵,甚至在磁罗盘或莱顿瓶这样简单的器具中,亦是如此。

亚瑟·凯斯特勒(Arthur Koestler),英国作家

近,我给好友发了一封电子邮件,向他分享了我家人的照片。定格在画面中的几代人总能触动我的心弦。和其他所有祖父母们一样,我想知道子女、孙辈未来的生活将会如何;我担心他们将会面临的挑战,也发愁自己该怎样去支持他们,以帮助他们走过人生中的起伏。不过,与过去的祖父母们不同的是,我相信自己能够拥有与家人、后代保持联系的潜能,而且这种潜能永无止境。

正如你将从本书中了解到的一样:“数字意识”关乎生命和生活,它就是我们的意识。随着软件、数字技术的进步,以及越来越复杂的人工智能技术的不断发展,这样的畅想变得越来越可能成为现实,你我将能够和家人保持更为长久的联系,与他们一起回忆,畅谈希望和理想,分享假期趣事、四季变化以及家庭生活中其他所有无论好坏的琐事,即使那时我们的肉身早已化作尘埃。

VIRTUALLY HUMAN 疯狂虚拟人

昨日生命消逝,明日重回世间

随着数字及思维克隆技术的发展,人类情感与智慧的持续甚至不朽正逐渐成为可能:软件版的大脑、基于软件而改变的自我、二重身、精神意义上的双胞胎。思维克隆人是利用思维软件并通过其进行更新的思维文件集合,而思维软件是与人类大脑功能相同的复制品。思维克隆人通过个人的思维、回忆、感觉、信仰、态度、喜好以及价值观创造而出。无论运行思维软件的机器如何,思维克隆人都将经历现实社会。

当拥有思维克隆人的生物学原型躯体死亡时,虽然思维克隆人也会想念它的躯体,但它并不会感觉到躯体已经离世,这就像截肢的患者也会想念自己被截肢的部位一样,但是假若有合适的假肢,他们仍然能够很好地适应生活。这样的比较带来了一个恰当的比喻:思维克隆人之于意识以及精神的意义,就像假肢对截肢之人的意义。

别想通过基因繁殖技术克隆人类,在培养皿中创造一个新的“婴儿版的我们”,这一过程并不会让我们获得老套繁殖“技术”的好处。如果人类基因克隆技术的监管阻碍(这些阻碍让人类基因克隆技术的发展速度比蜗牛的爬行速度快不了多少)能少些,那么数字克隆人将会更快地实现这一愿景。你可还记得1996年那只通过基因材料创造出来的克隆羊多莉,以及由它的诞生引发的一系列关于人工基因复制和人类未来的疑问?在多莉诞生后,有超过50个国家对与之类似的人类基因克隆技术颁布了禁令。从那时起,美国政府限制了对此类项目的联邦资金支持。2002年,乔治·布什政府的生物伦理委员会(Council on Bioethics)曾一致反对用于繁殖目的的克隆,但在这项技术能否用于研究上出现了分歧。这一切至今也并未发生改变。2005年,联合国试图通过一项全球范围的人类克隆禁令,却未能如愿,因为在治疗性克隆技术是否应该包括在内这个问题上,人们的观点出现了分歧,并从此陷入僵局。

除了道德和司法的障碍,通过繁殖科学进行基因克隆的花费着实高昂,这也意味着失败的代价很高。而且,通过基因克隆的人并不是真正的人,只是一个人的DNA复制品。基因克隆并没有创造任何人类意识,这就好比看起来一模一样的同卵双胞胎实际上并不拥有同样的想法。

然而,思维的数字克隆则是一个完全不同的话题。虽然本书讨论了很多可能出现的司法和社会问题,但是思维克隆技术正在自由市场中不断发展,并且跑在了快车道上。这并不令人感到意外。那些能让游戏人物宛如真人般和玩家对话的工程师都拿到了不菲的经济回报。可以说,那些能够创造出如理想工人般尽职尽责、唯命是从的个人数字助手的软件编程团队,等待他们的将会是巨大的财富。

这可能会让人感到有些不舒服,但我们必须应对这种不适的感觉,因为这是一种相对简单、价格亲民的可行方法,能让祖母通过她的思维克隆人“看”到几十年后子孙们的毕业典礼,而且这种技术意味着巨大的财富。毫无疑问,数字克隆技术一旦得到充分发展和广泛使用,让普通消费者也能负担得起,思维克隆人将会以人类希望的速度迅速发展。

一条一直上钩的鱼

罂粟是红色的,苹果是香甜的,云雀会唱歌,这些都在我们的意识中。

奥斯卡·王尔德(Oscar Wilde)
作家、诗人、剧作家,英国唯美主义艺术运动的倡导者

在我们深入探究思维克隆人的世界之前,有必要就“让这些数字化存在成为我们的克隆”的含义达成一致。这些存在的目的就是获得和表现出人类意识。在这场旅途中,确定一个行之有效的“人类意识”的定义至关重要。意识让我们成为“我们”。那些构成了我们意识的品质,即记忆、推理能力、过往经历、不断更新的意见和观点以及对世界的情感投入,都将产生思维克隆人的数字化意识。

刚出生时和早期婴儿时期,没有自我……宝贝有本能的欲望,但是这些欲望并不属于任何人……最早的经验,被限制为本能和控制,当意识的代理从初期意识的迷雾中获得了“我”(I)和“我”(me)的人类特征……当意识到“我”(I)就是“我”(me)的时候,我就拥有了自我……自我相当于对正在画自画像的自我画自画像。

彼得·怀特(Peter White)

《存在的生态》(The Ecology of Being

问题是,无论是科学家,还是门外汉,每个人都有各自不同的意识概念。人工智能领域的先驱之一、麻省理工学院人工智能实验室联合创始人马文·明斯基在《情感机器》一书中将“意识”称作“手提箱”式词汇(suitcase word),它具有多重合理的意思。这一领域的其他人则抱怨意识的“同义词太多样”“大量术语往往会掩盖潜在的相似之处”。考虑到人类大脑以往进化和正在进化的方式,意识很有可能同样具有渐进性。意识的一个广为人知的意思就是自我认知(self-awareness)。但是,它是否充分描述了意识的真实本质呢?

当然,一个婴儿的自我认知与一个青少年的自我认知不同,而青少年的自我认知又与中年人完整的自我认知不同,与年事已高、丧失部分认知能力的老年人的自我认知也不同。新生儿和成年人相比,前者拥有多少自我意识(self-conscious)呢?我回想了一下家庭照片——这些照片作为那些我深爱的已经过世的家人曾经活着的证据,相比于拍摄照片时有血有肉的人的状态,当然拥有非常不同的意识状态。

虽然自我认知是一个有意识之人很重要的一面,但它并不是唯一的一面。我们当然不会把能端水作为网络意识的一种定义。事实上,程序员可以编写出一个简单的拥有自我认知的软件,它们可以检测、报告,甚至能对自己进行修正。举个例子,操作自动驾驶汽车的软件可以被编程定义为:现实世界中的物体,包括地形(“使用传感器导航”)、程序员(“执行任何输入命令”)以及汽车自身(“我是一辆机器人汽车,可以对编程指令做出响应,进行导航”)。谷歌汽车正在做这些事情,一些人会定义它的运行代码,又或者,汽车本身是有意识的。

自我认知软件和机器人不会感受到身体或情感的疼痛或快乐,它们没有知觉。大多数人要求精神主观性(mental subjectivity)要涵盖情感,也就是知觉,以便具备意识,因为对“我们如何感受”的认识是人类意识的一部分,也是“作为人的条件”。但是,知觉仍然不能让我们获得想要的意识定义,因为我们所期望的有意识的存在应该同时是独立的思考者和感受者。

因此,“感觉”(feeling)也不是意识的一个独立描述。身体感觉并不需要复杂的认知能力。

当一条已经上钩的鱼在扭动时,我们大多数人会将这种现象解释为鱼在经受疼痛,也有人认为这是鱼的本能反应,并没有相应的情绪反应。大多数人认为,鱼是没有意识的,因为我们认为鱼的痛觉神经不会思考、探讨,或者向同类抱怨。相反,我们认为,鱼只是单纯地依赖非认知反射,因为它试图摆脱鱼钩。一旦脱钩,回到正常的环境,鱼就会继续游动,好像自己从来没有上过钩一样,因此它很容易会再次上钩。我认识一位渔夫,在捕鱼季时,他会钓住、放生同一条鱼很多次。这条鱼似乎在上钩时会感受到疼痛,但它从来不会从这一经验中“学到”任何东西,对于未来的水中冒险,它也不会接受任何“教训”。这说明,它缺乏某种关键的自我意识。

当然,人类可能会本能地拒绝被鱼钩钩住,因为我们知道这会让我们感到疼痛,我们会咒骂疼痛,并且会思考如何在之后避免这种事情。我们会警告其他人避免鱼钩的陷阱,传递尽可能多的关于鱼钩的信息。与鱼类不同,我们可能不会轻易地被鱼钩再次钩住,因为我们会记住这次疼痛的经历,并试图避免重蹈覆辙。当我们看到鱼钩的时候,会用大脑去识别鱼钩,从而避开它,同样也会预测下一次渔夫可能会移动到湖的哪个位置。因此,清晰的学习、推理和判断(对已知信息的应用)能力同样是意识的一部分,自主性也参与其中。在鱼和人类之间,“意识”的定义存在如此深奥的差异。

1908年,聋盲作家海伦·凯勒(Helen Keller)清晰地描述了如何基于交流建立人类意识:

在遇到我的老师之前,我不知道我是谁。我活在一个不是世界的世界里。我无法描述那种没有意识,但有虚无感的时间……因为我没有思考的能力,我不会将不同心理状态进行比较。

换句话说,虽然“意识”最基本的定义是清醒的、警觉的和有意识的,但思考和感受还有一个更为突出的意义。若想像人类一样思考,这个人必须也能够根据黄金法则演化而来的各种社会法则,做出道德抉择。在这一点上,哲学家和科学家相仿,从康德到荣格,他们都相信这是人类大脑天生就具备的能力。如果你去问世界上任何一个正常人,用棒球棍击打孩子的头是不是有悖常理,得到的答案一定是肯定的。

定义“意识”遇到的另一个复杂问题与潜意识有关,专业人士称之为“无意识思维”。有充分的证据证明,我们并不知道我们思考和感受的大部分东西,有时甚至会在未经思考的情况下行动。就像著名棒球经理尤吉·贝拉(Yogi Berra)总结的一样:“好好想想!你怎么能在同一时间思考和击打?”

弗洛伊德认为,我们无法完全意识到的无意识思维或本我(Id)经常与有意识思维或自我(ego)存在部分交叉,并在自我中进行自主推理。现代心理学虽然已经与弗洛伊德式的无意识意志解释渐行渐远,但接受了这样一个事实:“在我们生活的每时每刻,无论我们是完全清醒,还是深度睡眠,潜意识都会展现出自己的存在。”在电影院射击某人的头当然是错的,但是,2014年,一名退休的警察在佛罗里达的坦帕(Tampa)就做出了这样的事情,因为他的无意识思维以一种非常糟糕的方式宣告了自己的存在。美国前总统奥巴马在演讲中描述了在成为总统前,白人女性看到他时如何本能地抓紧自己的钱包,迅速从他身边走开。许多这类反应都可能是人们对他的肤色做出的潜意识反应。

对于人类而言,理性、感情或自我认知并不一定要一直呈现出来才能证明一个人是有意识的。不过,某种程度的非理性、无情感、无意识的心理过程几乎会在每位正在阅读本书的读者的意识中一直存在。具有人类意识就一定意味着同时拥有无意识思维。因为人类思维会不可避免地将某些概念(概括和套路)、动机(做出选择)与决策(避免危险)分流给无意识神经模式,从而腾出更多的大脑能力给有意识神经模式。同样的事情也会发生在网络意识上。我们大多数时候会有意识地走出由无意识控制的背景。

意识难题的一个解决方案是道格拉斯·霍夫施塔特(Douglas Hofstadter)的“意识连续体”(continuum of consciousness)。他声称,意识不是“在这里或那里”的东西,而是或多或少地存在于一个或多个方面,包括自我认知、情感、道德、自律和升华。霍夫施塔特在《我是一个奇异的环》(I Am a Strange Loop)一书中勉强承认了蚊子也具有一定的意识。尽管他没有讨论谷歌无人驾驶汽车,但“意识连续体”肯定也会把它视作蚊子的意识量子,又或者不像蚊子,因为它不需要伤害其他动物以实现“生存目的”:谷歌无人驾驶汽车已经完成超过160万公里的“无事故旅程”。霍夫施塔特对连续体逻辑的信心在于,他承认甘地和阿尔伯特·史怀哲(Albert Schweitzer)有着比自己更伟大的意识,因为他们展示了高于他自己的责任心(自我认知、情感、道德、自律和升华)。

另一种理解意识连续体的方法是反思。

我们之所以认为某些生物是有意识的,在一定程度上是因为他们做出的决策更加复杂,由进化预置的明显过程更少,并能权衡进化过程中产生的不同欲望。运动员决定忍痛坚持肯定是有意识的行为。在这种情况下,意识被分成了不同等级,很明显,运动员做出的决定比鱼更复杂。

实际上,拥有思维克隆人的人类会被认为“提高了意识水平”“拓展了思维”,具备了网络意识,而网络意识的延伸能让我们以双思维的方式参与更加复杂的决策,并且减少了进化中的预置过程,即使是思维软件工程师进行的编程,例如,天文学家卡尔·萨根(Carl Sagan)所谓的人类的“爬行动物冲动”。或者,如果做出的决策是基本的、具有明显的“电路化”,思维克隆人或许会被认为具有亚人类意识。

2012年7月7日颁布的《剑桥意识宣言》(Cambridge Declaration on Consciousness)肯定了霍夫施塔特提出的“意识连续体”,这次签字仪式十分重要,连热门新闻杂志节目《60分钟》(60 Minutes)也对其进行了拍摄。根据宣言,“一个由认知神经科学家、神经药理学家、神经生理学家、神经解剖学家和计算神经科学家组成的优秀国际团队”总结称:“有重要证据显示,人类不是唯一拥有能够产生意识神经基质的物种。非人类动物同样拥有这种神经基质,包括所有哺乳动物和鸟类、许多其他生物(包括章鱼)。”

凭着对意识连续体长度的限制,生物学家、神经科学家弗朗西斯·克里克(Francis Crick)和意识现代科学代表人物克里斯托弗·科赫(Christof Koch)提出:“语言系统不是意识的必要条件,没有语言也可以拥有意识的必要特征。当然,这并不是说语言没有丰富意识的内涵。”因此,当我们在本书中讨论意识的时候,我们并不是讨论所有意识,而只是人类意识。

因此,人类网络意识的定义需要足够个性、具体,并具有可确定性。通过将自我认知、道德与自律划分为一组,情感和升华与移情划分为一组,我们可以得到如下定义:人类网络意识就是由一小组研究人类意识的专家达成一致后确定的、基于软件的人类级别的自律和移情的连续体。

显然,这是一个以人类为中心的定义。不过,这一定义不存在冗余。它不是间接定义,因为是由“研究人类意识的专家”来确定“人类级别的自律和移情”是否存在的。它以人类为中心,实际上,这正是我们所希望的结果,因为就像美国哲学家、认知科学家丹尼尔·丹尼特(Daniel C. Dennett)所说:“无论思维是什么,它都应该是与人类思维相像的东西;否则,我们不会称它为思维。”(13)换言之,具备人类意识是判断一个主体能否像人类一样思考和感受的捷径。在一定程度上,我同意美国最高法院波特·斯图尔特法官(Potter Stewart)的说法,他在被问到“如何定义色情”时回复说:“当我看到时,我就能判断。”

依靠“人类级别的自律和移情的连续体”,我将那些在无意识状态下产生的独立思考和感受也纳入无意识思维。网络意识软件必须拥有一定量的无意识概念、动机和决策,以产生人类级别的思维。就像后台运行的代码一样,这不是搅局者,它的前台信息处理单位不是“有意识的”,而是很早以前就已经掌握的编程技巧。

艾伦·图灵首先提出,如果软件能成功通过人类的判断,并被认为具备人类意识,那这一软件就是具有人类意识的。如今,我们称之为“图灵测试”。用他自传中的话说就是:

为了避免对“思维”“思想”“自由意志”应该是什么的哲学式讨论,只需要比较机器的表现和人类的表现就可以判断一个机器人的思维能力。这是“思考”的操作性定义,而非像爱因斯坦坚持的对时间和空间的操作性定义,以便将他的理论从先验假设中解放出来……如果机器表现出了像人类一样的行为,那么它就是在像人类一样行动。

我们对人类网络意识的定义限制了图灵测试的部分条件:图灵测试需要软件说服一小组专家,而非单一个体;不单单涉及偶然的对话,也关乎自律和移情。有人可能会批评图灵测试说,如果木头鸭子叫得像真鸭子,那么它就是真鸭子,这显然是不对的。这个批评太过片面,因为图灵测试的观点是在测试功能,而非形式。如果木头鸭子能像鸭子一样游泳,那么它就是真正的鸭子。如果机器能像人类一样思考,那么它就是人类思考者。(14)

木头鸭子,真鸭子

有很多人就是无法理解,计算机如何用与朋友或者妈妈向我们表达意识一样的方式向我们表达意识,这些方式包括陪伴、爱、大笑、移情等。事实上,“computer”这个词最早可追溯至20世纪40年代第二次世界大战期间,它的含义与今天的含义完全不同。在当时,“computer”指的是做数学计算的人,例如,某个为保险公司做数学方面工作的人;或者指为人类做数学计算的机器(就好比“washer”既有“某个洗衣服的人”的意思,也指“为人洗衣服的机器”)。举个例子,在20世纪30年代的全球经济大萧条时期,美国政府在成百上千的“computer”上投入了大量资金(请注意,这里指的是人,而非机器),为火炮弹道建立数学表格。这些人都比较贫困,大多数没有接受过正规教育,他们甚至有一个名为“计算者联盟”(computers union)的称谓,工作任务就是做一些简单、重复的小规模计算,最后,数学家会将这些小规模计算整合为复杂的算术解决方案。

1937年,图灵在一本名为Computable Numbers的期刊上发表了一篇有关“通用计算机器”的学术论文,其核心是如果这台机器拥有了正确的计算程序,它就可以计算任何事情。从严格的数学意义上来看,这一激进的概念与查尔斯·巴贝奇(Charles Babbage)和爱达·金(Ada King)在1837年提出的理念如出一辙。两人都将自己的机器称作“差异引擎”(difference engine,他们制造的用于数字计算的机器)和“分析引擎”(analytical engine,后者能够使用穿孔卡进行编程,几乎能用于任何工作),虽然他们并没有制造出来,但是这些构想与图灵的构想十分相似。我们由此能够看出,在构想一台具备读、写、听、扫描、播放视频、玩游戏、医疗诊断等能力,甚至能思考和感觉这些能力的“computer”这件事上,人们的思想已经发生了巨大的跳跃。不过,图灵却精确地预测到了这些,因为他预见到,未来的数字计算机将具备同类的逻辑能力,并支持上述各种能力。20世纪50和60年代,随着数字计算技术的出现,理解图灵提出的革命性设想的人不断增多,这其中既有批判者,也有支持者。1950年10月,图灵在期刊Mind上发表了一篇题为《计算机器与智能》(Computing Machinery and Intelligence)的文章。在文中,他清晰地阐释了将人类意识从计算任务中排除的机器能够做些什么。

今天,公众普遍认为,“computer”几乎无所不能(所以,智能手机被称作“数字版瑞士军刀”),一些计算机甚至能够移动(如机器人)和思考(如某些程序)。事实上,通俗意义上的“computer”更像某个“掌握信息后几乎无所不能的设备”,并且它们会变得越来越强大。这与“做计算的人”这个含义相去甚远,而与图灵的“某种可以用信息做任何事情的机器”的定义越发接近。随着计算机开始呈现出情绪和人类意识的其他方面,它们将会走完这次征途。关于这次旅途的起点和终点,图灵分别在他的两篇文章中进行了很好的总结。经过了半个世纪,“computer”这个词的意思从“做计算的人”变成了“具备智能的设备”;而我认为,“computer”不久之后将拥有“人造意识存放地”的含义。值得注意的是,每一个定义都包含了之前的含义:智能包含了数字处理,而意识包含了智能。

即便某个东西开始以人类的方式行动,我们仍然很难认为它“像人类一样”。不过,计算机受到了特殊的怀疑,因为它们不仅支配了我们的生活,还对大多数人保持了神秘感。计算机不过是一堆线缆、塑料和金属的集合体。“计算机和人类一样”的构想似乎是令人恐惧且荒谬的。如果你也这么觉得,那你不是唯一一个。

对软件意识持怀疑态度的人都提到,人类意识的超越性特征永远无法实现数字化编排,因为这些特征太过复杂、不可预知或无法度量,这些人包括诺贝尔奖得主、医学和物理化学家杰拉尔德·埃德尔曼(Gerald M. Edelman)和数学物理学家、哲学家罗杰·彭罗斯(Roger Penrose)。埃德尔曼坚信,大脑并不像计算机,所以计算机永远不可能像大脑一样。用埃德尔曼的话来讲就是:“我希望消除的一个幻想是‘我们的大脑是计算机,而计算中可能会出现意识’。”事实上,他坚持的“计算机(通过计算机软件的方式)永远无法获得意识”的几个主要原因殊途同归,都说明了一件事:大脑远比计算机要复杂得多。

埃德尔曼的这场讨论尤其重要,因为持有“计算机软件能够变成网络意识”这一观点的许多评论家都从他的观点中寻找支撑他们偏见的根据。当我们检验埃德尔曼的观点时,可以扪心自问,随着计算机复杂度的指数级增加,我们究竟会遇到什么,又会发生什么。即使计算机永远不可能像大脑一样,我们是否在朝着“计算机将像人脑一样进行思考”这一节点进发呢?

关于这一点,我们很容易进入思考误区:因为大脑不像计算机,所以计算机就无法像大脑一样思考。但是,需要记住的是:计算机若要成为思维克隆人,并不一定要复制大脑的所有功能。举个类似的例子,想象一下,飞机虽然不像小鸟,但也可以飞行。就像前面所提到的一样,拥有数以十亿计真核细胞的小鸟要比只拥有600万个组件的波音747飞机复杂得多。今天,飞机虽然比鸟儿飞得更远、更高、更快,但没办法像雨燕或军舰鸟一样在空中停留数月,尽管我们最终会在高效、重量轻的太阳能和其他种类的存储电池方面取得突破,从而让飞机在空中停留更长时间。同样,飞机无法像蜂鸟一样穿过小孔或在花朵上面盘旋,不过,最新型的远程控制飞机、微型飞行程控监视设备和无人机都可以做到这一点。

在思考这个类比时,还有一点同样很关键,那就是我们应当记住,为了达到飞行这个目的,我们只需要飞机拥有一只小鸟所具备的一部分功能。一架会下蛋、在树上或屋檐下筑巢,或者以鱼和虫子为“燃料”的飞机并没有什么用途。而且,一架能够做到这些事情的飞机并没有什么实际或效率价值。换言之,如果只是想要提供安全、舒适的飞行,一架飞机不需要完完全全复制一只小鸟的全部功能。所以,我们可以得出这样的结论:鸟儿之于飞行,就像大脑之于意识。

大脑和计算机之间的区别,或者小鸟和飞机之间的区别,切中了要害。或许只有军方会对具备游隼一般的空气动力学特征的飞机感兴趣。大多数人对飞机的兴趣在于,仅把它当作一种“从一座城市安全、高效、可靠地前往另一座城市”的途径,并且要尽可能舒适。同样,我们中大多数人对一台能够自组织、逐渐从产生、发展到成熟的计算机也不是很感兴趣。我们想做的只是制造出一台能够模拟人类思维的计算机,我们感兴趣的是能够像人类一样思考和感受的计算机。埃德尔曼通过假设(而非推论)得出了自己的结论,因为他假设意识只会在大脑中出现。但事实是,无论大脑是不是计算机,都不影响意识是否会从计算中出现。

为了论证这个目的,互斥集合仍然能够联系起对两个集合而言都普遍成立的现象。举个例子,奇数和偶数是互斥集合。我们可以想象,奇数是大脑,偶数是计算机。但是,这两个集合内都存在斐波那契数列(数列中,每一个数字是前面两个数字之和),我们可以把这个数列想象成意识的一个隐喻。类似地,三角形和正方形也是互斥集合,每两个三角形或正方形结合起来都可以组成长方形。埃德尔曼的错误就好比,由于他看到意识的长方形都由神经的正方形组成,并且,因为计算机是三角形而非正方形,所以他就认为,意识的长方形无法由三角形组成。他忘记了,就像有很多方法可以达成目的、物体有很多方法可以实现飞行一样,同样有很多方法可以组成意识的长方形。

埃德尔曼声称:“大脑并不按照逻辑规则运转,而计算机必须接受明确的输入信号。”他强调,给大脑的输入不是“编过码的磁带”(这里指的是一种过去向计算机输入信息的方法)。当然,大脑并不像一台原始的、依靠“编码磁带”运行的计算机。实际上,并不是所有计算机都需要明确的输入信号。一些计算机已经成功地依靠一系列非常模糊的输入信号驾驶汽车穿越了美国和诸多沙漠。此外,一些现代计算机能够以与人类思维获取信息非常相似的方式将模糊、嘈杂的现实,解析为可辨识的元素。用来分析歧义数据的并行处理器间的模糊逻辑、统计分析协议以及投票是三项代表性的技术,这些技术能使软件理解“令人困扰的”感觉性输入:猜测,并且做到有策略地猜测。

以一次远足为例。我们来到了BINA48在佛蒙特州的故乡附近的一条林间小路,这条小路掩映在秋日的落叶中。我们沿着这条小路,用装配了网络意识和编程软件的智能手机或者基于谷歌眼镜的计算机来寻找路径。随着我们穿越森林,数以十亿计的神经元会检测数以百万计的颜色、密度以及几何信号。我们的眼睛以大约每秒300万比特的速度将这些信号传递给大脑。与此同时,神经元组成的巨大网络将输入雪崩式的信号,根据人生经验[这些经验教会“一起开火”(fire together)的神经元如何“联结在一起”(wire together)]解析为模式。树叶、树和通路组成的谐音模式将会出现在这个嘈杂的输入信号中。我们不会有意识地认出每棵树上的每一片树叶,事实上,我们的眼睛只能够区分在狭小的、远离外周视觉的中心凹区里的物体细节。通过分析所有输入数据,我们的思维构建了一个抽象的森林和小路,其中的原理是,通过不断地进行来回扫描,眼睛将视觉中心凹区细节的“视觉扫视”(visual saccade)传递出去。有时,思维也会根据全局景象无中生有,去编造视觉信息。

VIRTUALLY HUMAN 疯狂虚拟人

像人一样感知

拥有网络意识的智能手机“伙伴”也能看见同样的颜色、形状和密度。但是,与大脑不同,这个网络意识伙伴能够快速地将“所见”景色与自己存储的数以百万计的图片进行比较,然后将其判定为森林。之后,这个伙伴会确定森林景色的哪一部分拥有较低密度的连续区域,即林间小路,并将自己的注意力引向这条通路。我们的网络意识伙伴所做的事和生物思维意识所做的事,二者的最终结果呈现了极大的相似性:都从每秒3MB的数据流中得到了高级别的意识抽象(森林、小路)。在使用网络意识在森林中漫步时,我每时每刻所感受到的惊喜不比自己行走的时候少。如果我们在灌木丛中迷路,网络意识伙伴会像我可靠的徒步伙伴拉布拉多犬一样可靠,将小路与森林区分开。

每个事例中都存在思考,尽管它的呈现方式不尽相同,如鸟儿或者飞机。根据我与朋友若干次穿越森林的经验,每个例子中都可能会存在某种程度的审美和满意度方面的挑战。对网络意识伙伴而言,它需要为“美学”“奇迹”“完成任务”等高级别概念进行初始编程赋值,以应对自然环境、秋天的森林,以及林间小道。但是,这不比我们教一个孩子“自然是很美的,森林是令人惊叹的,完成挑战是很棒的”的工作量少。甚至,即使人类对美、奇迹以及完成任务的感受是天生的(尽管科学家从野孩子身上获得了相反的数据),是人类大脑固有设置的一部分,智能伙伴的这些感受依旧是真实的,因为它们是被编码进思维软件的。对和谐的欣赏依旧是有价值的,因为它是后天学习的,而非与生俱来的。

埃德尔曼还指出,大脑是变化莫测的,“褶皱的大脑皮质拥有大约300亿个神经元,大约1万万亿个联结。这种结构可能的活跃通路数量远远超过了已知宇宙中基本粒子的数量”。他质疑,计算机能否依靠对内部时钟、输入和输出的严格依赖匹配这种可变性。但是,我写本书时所使用的MacBook Pro拥有大约5 000亿比特的内存,1比特内存的容量大约等于一个神经元的容量。换句话说,我笔记本电脑里的神经容量是我大脑皮质神经容量的15倍多。因此,仅就神经元的数量而言,计算机和大脑之间没有显著差异。如果要说差异,现在的计算机拥有的神经元等价物要比大脑拥有的神经元多,并且不久后将拥有更多。

现在,如果将我电脑里的每一张JPG图片都链接到数以千计的其他JPG图片,而且,如果每个链接都参与了有偏好的、强化的、经过自然选择的、有层次的额外链接,我将会获得某个类似人脑的东西。举个例子,想象一下,当我点击一张我爸爸的照片时,这张照片就会自动被相关联的照片环绕,比如我妈妈的照片、我表兄妹的照片、我家房子的照片、我们度假的照片,等等。他们每一个人都自动地被类似的、关联的照片包围,但是,所有这些照片中,只有那些从众多候选照片中被选中的、与被触发照片关联度最强的照片会保持高亮。这不正和我们的大脑在浏览照片集时的工作方式一样吗?我们不会记住并对过去的所有经历做出反应;相反,我们是从众多记忆中选择并赋予了一些记忆更高的优先权,并将其进行互相连接。

中文房间

大脑是非常神奇的关系型数据库。感知神经元输出之间的联结以及这些联结之间的通路以更高级的顺序联结是孕育意识的“土壤”。每一个神经元都能制造出最多一万个连接,我们有一万亿个神经元,这意味着,每个人都有充足的可能性,根据独特的联结模式产生主观经验。

然而,大脑不只由血肉组成,还有其他方式来将数以十亿计的信息块灵活地连接在一起。被设计成在强大处理器上运行的软件大脑已经复制了大脑产生意识的方式:IBM的超级计算机沃森赢得了《危险边缘》竞赛,BINA48证明了移情作用,雷·库兹韦尔编制的程序可以绘画、作曲和作诗。

许多程序员、科学家和其他人相信,我们可以编写出超越代码的代码。

正是因为这种新鲜、略带神秘感的特征,特别将其应用在理性和/或移情时,我们希望人是有意识的,而非自主的(在没有意识控制的情况下,参与活动或做出响应)。简而言之,人类不会像机器一样可以预测,因为意识不会像计算那样算法化。意识需要特质、独立的思考,以及基于个性化的行为选择而采取的行动。所以,“独立性”并不需要成为先驱或领袖,它只需要能够做出决策,基于个性化的评估采取行为,而非仅仅根据严格的公式行动。

意识的“困难问题”和“简单问题”

意识的重要性毋庸置疑,这一点可以从哲学家戴维·查默斯(David Chalmers)所谓的意识的“困难问题”和“简单问题”上得到确认。“困难问题”是要搞清楚被我们称为神经元的网络分子是如何产生主观感受或感受性(有意识的主观体验的个别实例,如“红色的红”)的。相对地,“简单问题”是指电子通过神经化学的传导,如何导致了“混凝土和砂浆”(以及血与肉)的复杂模拟事实。或者也可以理解成,超自然的想法是如何从躯体中产生的。从根本上来说,关于意识的困难问题和简单问题都归结于一个问题:大脑是如何产生思想的(简单问题),特别是那些无法度量的事物(困难问题),而身体的其他部分却没有这样的功能?如果这些困难问题和简单问题都可以用分子上运行的脑波来解释,那么,我们需要解决的仍然是探索这个问题的答案与集成电路运行软件代码之间有何区别。

至少,从牛顿和莱布尼茨时代以来,人们一直有这样的感受,与思维有关的事情都应该是可以度量的,而其他事物则不然。可度量的想法,比如一座建筑的大小或者一个朋友的名字,被认为是通过一些精密的微机械过程在大脑中发生的。现在,我们可以画出计算机芯片、处理器和外围设备的模拟结构。尽管这是有关意识的简单问题,但我们仍然要准确地解释一个或者更多神经元如何保存、剪切、粘贴或者回忆任何词语、数字、气味或图片。换言之就是,神经元分子是如何捕捉和处理信息的。

那些无法被度量的事物是困难问题。在查默斯看来,如果一个存在只拥有“简单”类型的意识,那么它只是具有意识,但仍然不是人类。这样一个存在也被称为“僵尸”,它可能是没有情感、不懂移情的机器人。这不属于我们所研究的意识范畴。由于非僵尸、非机器人特征同样被认为是不可度量的(例如,红色的红或单相思的心痛),所以查默斯无法从理论上看清它们如何被某些实体的东西处理,比如神经细胞。

查默斯认为,意识是一种无法用科学来解释的神秘现象。如果事实的确如此,那么就可以说,意识可以像联结神经元一样,连接到软件;或者可能不是这样,它可能遍布于我们呼吸的空气中以及星辰间的空间中。如果意识是神秘的,那么一切都将是可能的(正如我在这里证明的)。从通俗的角度来看,经验性的解释足以解答关于意识的简单问题和困难问题。这些解释对神经元和对软件一样适用。

图1-1说明了三种关于意识来源的基本观点。本质主义者相信人类特殊的生物学来源。这基本上是一种认为“在整个宇宙中,只有大脑才能产生意识,这近乎奇迹”的观点。唯物主义者相信经验性来源,即意识可以从存储在大脑神经元中的化学状态或计算机芯片的电压状态中的信息之间的无数联结模式中出现。丹尼尔·丹尼特是这种观点的坚定支持者,早在1991年,甚至更早以前,他就在自己提出的意识的多重草稿模型(Multiple Draft Model)中提到,机器人意识从理论上讲是有可能存在的。注意,图1-1同时指出,同一个人可能既是本质主义者又是唯物主义者,就是两个圆重叠的区域。

图1-1 本质主义者Vs.唯物主义者

埃德尔曼则坚持认为,只有大脑才能产生意识,但是,这是因为大脑的唯物主义特性与精神源是相反的。其他本质主义者(即本质主义者圆圈中未与唯物主义者圆圈重合的部分)认为,意识不同于某些可复制的、能够让大脑变得有意识的物质复杂性。第三种观点是,意识客观世界的一部分是能够神秘地附加到任何东西的时空的一部分。“上帝将意识赋予亚当和夏娃”或“先民”的观点属于第三种观点,是唯心论者的观点。神秘论的解释无法被证实,也是没必要去证实的,因为存在能够解释简单问题和困难问题的完美、合理、不神秘的解释。1

“中文房间”,从软件中诞生的人类意识

我认为,哲学家约翰·塞尔(John Searle)提出的观点是对与思维相关的哲学方法进行分类的最富创造性的观点。塞尔在“意识界”享有盛名,因为他提出了一个名为“中文房间”(Chinese Room)的思维实验。这一实验旨在展示,由于完全相同的原因,一个传统的、经过编程的计算机不可能有意识,比如,谷歌翻译无法理解我们让它进行汉译英的文本的意思。传统的编程计算机只会盲目地将每一个输入与输出进行关联,不会从主观上关心或考虑自己正在做什么。“灯是开着的,但没有人在家”,这显然无法通过我们之前提出的网络意识的定义性测试:以人类专家的判断认定其具备人类级别的移情和自主性。

塞尔将“唯物主义”的定义拓展到了主观现象,例如意识的思维。他提出,这些是非精神性的,而且是“自然‘物质世界’的一部分”,但并非有形的,也是不可量化的。因此,塞尔提到,如果大脑可以将意识作为自然发生的属性,为什么其他机器不可以呢?这一观点决定了他应该被划归为唯物主义者,他总结说:“从理论上讲,没有什么已知的阻碍影响我们制造出有意识、能思考的人造机器。”然而,他又提出:神经模式或软件模式对产生可观测、可度量的思维(或感受性)而言,并不是十分必要的。我们可以用先进的核磁共振成像设备追踪神经通路或一个读写程序的软件例程。这给了唯物主义者应得的东西,即存在某些可以从第三方视角进行观察和度量的经验性东西,但是,这减少了这些神经元(或软件)度量的引入,因为,这些客观的物质只是让意识变得独特的事物的一部分。塞尔通过澄清最终的思维或思维的扰动是不可被客观度量的提出了上述唯物主义,因为它出现在意识内部。2因此,即便主观性对第三方度量不可用,它也是真实的(即非精神的,也不局限于人类大脑)。在本章后文中,我将会讨论我们如何从最低层面获得一个足够好的对这种主观唯物主义的模拟。

如果人类意识要在软件中产生,我们必须要做到三件事:

· 首先,解释在神经元中简单问题是如何被解决的;

· 其次,解释在神经元中困难问题是如何被解决的;

· 再次,解释如何在信息技术中复制神经元的解决方案。

这三个解释的关键就是“关系型数据库”(relational-database)的概念。在关系型数据库中,一次查询(或者大脑的一次感知输入)会激活一些相关的响应。反过来,每一次响应又会激发更多相关的响应。当刺激的强度高于某个阈值时,比如它被激发的次数高于一个数值,一次输出响应就会被激发。3

例如,我们的DNA会将某些神经元编写成对不同波长光线保持敏感度,而让其他神经元变得对不同词素(语言发音的一个基本单位)或声音保持敏感度,这些词素与其他词素组合成有意义的词语。所以,假设一下,当我们在看某个红色的东西时,我们会被重复告知“It is red”(它是红色的)。在众多神经元中,对红色敏感的神经元与其他对组成“it is red”声音的不同语音部分敏感的神经元进行配对。随着时间的推移,我们知道,有许多不同明暗度的红色,并且,负责不同波长的神经元逐渐与对应某一明暗度的“红色”词语或物体产生了关联。

红色的红只是每个人由基因编写的神经元搭建的,从视网膜到我们所关联的不同红色的不同波长,以及神经元与包含红色事物的神经元模式之间丰富的突触联结。如果一个人一生看见过的红色的东西只有苹果,那么红色对他们意味着,红色波长神经元输出的、只在他们的思维中关联到苹果的神经连接集合的一部分。红色不是我们脑海中本身的电子信号,然而,它却是关联颜色波长信号与现实世界指示对象的纽带。红色是我们已经建立的有关红色事物的众多神经元联结在1秒甚至更短的时间内,获取的多层面印象的一部分。

一些一线感知神经元完成感知后,所有在我们思维中的东西都会被表示成一种神经联结模式。这就好像感知神经元成了我们的字母表。这些神经元通过突触以各种方式进行关联,组成了心理图像的物体和行为,就好像字母可以组成一个满是单词的词典一样。心理图像可以通过更多的神经突触串联在一起,组成任意数量的关联顺序(特别是在做梦时),形成世界观、情绪、性格以及行为规范。这就好像将单词组成拥有无限种可能的句子、段落和章节一样。

单词的语法就像是我们至今仍然所知甚少的大脑的电化学性质,这些性质加强或减弱了突触联结的波长,而联结本身实现了专注、心理连续性和特征思维模式。意识本身就是关于我们自主、移情生活的一整本书,每本书都有自己独特的风格。这本书写满了充满生活词汇的章节、我们做过的事情的段落以及反映意识流的句子。

神经元在保存、剪切、粘贴和回忆任何单词、数字、气味、图片、感受或情感时,所谓的意识简单问题和困难问题对其而言并没有什么区别。举一个关于爱的“困难”问题,它也被称为雷·库兹韦尔的“最终形式的智能”。罗伯特·海因莱因将其定义为“别人的快乐对你的快乐很重要”的情感。神经元将人们的爱保存为感知神经元输出的集合,这些输出精确地对应了主体的形状、颜色、气味、语音和(或)纹理。这些输出来自一线神经元,一线神经元在接收到某种特定轮廓、光波、信息素、声波或触感信号后,会释放出自己的信号。这些描绘爱的输出集是一个稳定的思维,一旦建立,作为某些单位神经化学强度集合的一部分,任意一个激发状态的感知神经元都可以激发其他感知神经元。这些神经元会将思维与突触联结的矩阵关联起来。

包含爱的思维的感知神经元输出集合本身会与大量其他思维相关联,每一个输出会直接或通过其他思维间接地传递给感知神经元。其他思维会包含许多指引我们爱某人或爱某事的线索。从外观或行为上来讲,或者是在某些受偏爱实体的逻辑联结上,对某些之前喜欢过的人或事或许会有一些相似之处。随着在爱上面投入的时间增多,我们能够利用其他健壮的突触联结进一步加强感知联系,比如与色情、亲密关系、内啡肽和肾上腺素有关的联结。

我们是我们的联结体

没有一个神经元知道我们的爱人长什么样。相反,有大量神经元作为联结的一个稳定集合,代表了我们的爱人。这些联结集合是稳定的,因为它们很重要。当事情对我们而言是重要的时候,我们就会将注意力集中在这些事情上,相应地,大脑会强化神经联结的神经化学强度。对我们并不重要或者从重要变得不重要的事情,神经联结的神经化学强度会变得越来越弱,最终这一想法就会像废弃的蜘蛛网一样消散。神经元会通过削弱神经元之间的化学联结强度来剪断不曾使用的或不重要的思维。通常,一个退化的联结可以保留下来,然后以固定这一联结的感知神经元为起点,被回溯创造路径重新激发。

这就意味着,所谓的意识困难问题其实没有那么复杂。克里克和科赫敏锐地提出,关于复杂的、实验性质的现象,没有什么新的东西会从多样的、精巧联结的非生命模块中产生。解释我们认知的主体性(来自神经元阵列的红色的红)不会比解释“来自‘死物’(dead)分子的活物(比如细菌)的‘活力’(liveness)”更困难。克里克和科赫总结说:

这意味着,它起源于有关联的火花……以及相关代表之间的联系。举个例子,在一个巨大的关联网络中,与某个特定脸庞关联的神经元或许会与某个拥有这张脸的人的名字或者她和别人说话的嗓音,以及与她有关的记忆,进行相应的关联,这与字典或者关系型数据库很是相似。

当不同维度的碎片被正确地结合在一起,整体就可以超越碎片。主观性只是每个人联结更高级神经元模式的独特方式,这些神经元模式与感知神经元密切相关。我们可以将主观性想象成音乐播放器上的音量。你给感觉、记忆、感情、想法或人的赋值越高,你希望播放的声音就越大,你找到的耳机越高级,你就越可以闭紧双眼享受音乐。意识的困难问题是我们头脑中联结模式的多样化特殊设置。意识的简单问题可以在感知神经元的认知中被解决,这些神经元就像脚手架,通过它们,我们建起了思想的摩天大厦。如果“感知神经元可以作为一个群组定义更高阶的概念”这个观点能被接受,并且这些高阶概念可以作为一个群组定义更高阶的概念,那么意识的简单问题就可以被解决。实体神经元可以承载非实体的思维,因为神经元与认知代码的成员进行了关联。神经联结的元物质模式,而非神经元本身,包含了非物质思维。这种元物质模式的时髦术语就是人类“联结体”(connectome)。所以,今天的神经化学家很喜欢说“我们是我们的联结体”。

最后,有一个问题仍待解答:“神经元组成存储内容的模式”的方式是否存在某些不可缺少的东西,或者,软件是否可以完成同样的工作?大脑神经元耦合的强度可以在软件内通过编写代码予以复制——在关系型数据库中,人们通过对不同的强度赋予不同的权值,以进行软件耦合。权值高的软件耦合意味着更容易做出某些决策。例如,在公式“x=5y”中,x的值是y值权重的5倍。如果权值为x的思维像y值权重所代表的思维一样增至5倍,或者重要性增至5倍,那么x=5y

思维克隆人如何具备人格

美国国家科学基金会的威廉姆·希姆斯·本布里奇(William Sims Bainbridge)是软件编码人格属性领域的权威专家。他成功组织了基于数千人的人格采样调查的验证工作,比如大五类人格测试(Big Five),它是心理学家研究的主要依据,包括20个李克特量表式(Likert-type-scale)问题,涉及开放性、宜人性、责任心、神经质性和外倾性;还有雷蒙德·卡特尔(Raymond Cattell)的16种人格因素(16PF),用以评估人格的16个维度,包括乐群性、聪慧性、稳定性、恃强性、乐观性、有恒性、敢为性、敏感性、怀疑性、幻想性、世故性、忧虑性、实验性、独立性、自律性、紧张性。

本布里奇根据10万多个问题建立并验证了自己的人格采集系统。每一个问题都有二维权重,即人格属性对人的相关重要性和与人的适应性的相关程度。通过使用数万个本布里奇的二维加权、性格采集问题,本书假设,通过量化一个人的思维文件可以得到基于软件的人格,这一人格会像真人一样对外界做出回应。通过这些性格采集问题,当思维软件审阅一个人的思维文件后,会自动完成实际的评估工作。随后,思维软件可以使用评估结果,为思维克隆人进行人格设定。

大脑中,一个神经元最多可以连接一万个其他神经元,我们可以在软件中复制这一联结,也就是将一个软件连接到至多一万个软件输出上。基于概率的权重,比如使用贝叶斯网络的统计方法,也会帮助思维软件模拟人类的思考过程。神经元模式维护自身有效性的能力,比如维持人格或专注,都可以在软件程序中得到实现,这些程序可以被编写成保持特定软件群组的活跃性,例如反复执行一项复杂的计算任务。

最终,软件系统将可以接受各种感知输入(音频、视频、嗅觉、味觉、触觉)。总结以上叙述,丹尼尔·丹尼特谈到:

如果自我“只是”叙事的重心,所有的人类意识现象也可以解释为“只是”在人脑巨大、可调节的神经元联结中实现的虚拟机器的活动。然后,从理论上讲,一个拥有硅基计算机大脑的、适合的“编程”机器人将会拥有意识、拥有自我。更确切的说法是,将出现一个拥有意识的自我,它的身躯是机器人,大脑是计算机。

至少对一个唯物主义者来说,神经元要产生意识,没有什么是必须的,因为这些神经元无法用软件来实现。丹尼特这段围绕“只是”(just)展开的论述是哲学家常爱开的一个小玩笑。他每说一个“只是”,都在表示,如此宏伟的联结和模式实在让人叹为观止。事实上,丹尼特只是走在了图灵在半个世纪以前就铺好的道路上:

无论大脑做什么,它都是作为一个逻辑系统,依靠自己的结构优势来完成的。这并不因为它在一个人的脑袋里,或者,它是一种由特定种类的生物细胞组成的海绵组织。如果确实如此,那么它的逻辑结构也可以在其他媒介中实现,借由其他一些物理机制进行呈现。这是唯物主义者所设想的大脑,但是不会像大家通常所做的那样,把逻辑模式、关系与实体物质或东西相混淆。

图灵或许是人类首次在历史上认识到,思想或心理学只是碰巧在功能上与理想计算机拥有同一类离散逻辑系统。毫无疑问,这种观点的形成得益于他在计算机科学领域的造诣,包括他建造的Enigma计算机,该机器破译了纳粹密码,帮助盟军赢得了第二次世界大战。因此,一个人大脑的功能,也就是人类意识,实际上确实可以在适合的计算机中实现。当人们设想在一个人造大脑中实现这样的系统时,这不是一种退步,而是一次了不起的尝试。

瓶颈,瓶颈,瓶颈

计算机和软件中有没有什么东西无法重现人类思维的连接特性呢?没有。实际上,我笔记本电脑中的5 000亿比特内存所拥有的可能的组合数目已经远远超过了宇宙中的基本粒子数量。埃德尔曼的统计数字并没有超过计算机的复杂程度。思维软件拥有意识是可以实现的,因为人类的思想和情感是符号模式的。无论这些符号是在大脑或还是在思维文件中编码,其模式都是一样的。模式和连接十分复杂,以至于软件只能重现部分过程。但是,随着软件的跳跃式发展,符号关联的范畴一定可以实现。举个例子,规划如何从家走到某个新饭店的路线的地图软件在当下十分普遍,但在10年之前,这些软件并不存在。

神经元的软件等价物之间的联结数量并没有什么先验限制。举个例子,顶级网站一般拥有上万个活跃链接,其他网站会指向这些网站。但是,需要承认的是,到目前为止,还没有人能编写出软件,来支持数据库在内部不同值域间建立近10亿个链接(而大脑中拥有近似的联结数量)。这一方向的研究推进得很快,而传统的关系型数据库系统正变得更加敏捷,与巨大的、低成本的云计算资源之间的连接更加密切。

然而,实际上我们没有必要争辩信息技术发展与极端丰富的大脑神经学环境之间的关系。相反,我们可以这样理解埃德尔曼的观点,大脑比任何计算机都要复杂、变化莫测,可以自我组织、无法预测,并且更具动态性。唯物主义者都乐意承认,人类意识起源自人类大脑那神秘莫测、复杂的神经回路,来自“潜藏在思维之下的非凡物质,它什么都不像,就是它自己”。它不像其他东西,人类意识无法从任何其他媒介中产生。

正如我在前面提到的,飞行的灵感确实起源于鸟类精密复杂的生物化学和神经肌肉生理学。但是,难道这就意味着飞行不能从更加简单的飞机、直升机、喷气式飞机、无人机和远程遥控汽车中出现吗?我们知道答案。大自然中充满了这种各自进化发展的相似功能,而且有一些途径要比其他途径简单。那些设计简单的机器同样可以完成许多任务。在过去几亿年间,眼睛经历了至少50次不同的进化,进化出了更多适应生物生存需求的能力:夜视能力、彩色视觉、双目视觉、鹰视觉、红外视觉。举个例子,眼睛最初只是一个简单的光敏色素,基本上是只能传递光“是否存在”的转继器,不足以产生视觉。在寒武纪大爆发时期,也就是5.42亿年前发生的一次加速进化,许多物种的眼睛结构和功能都得到了提高,包括图像处理能力和光线方向检测能力。之后,根据不同的进化需求,不同物种在不同时期进化出了不同的视觉能力。一个结构(比如人类大脑)会导致一个过程(比如意识),某个非常相似的过程(比如网络意识)也能够通过不同的结构来实现(思维文件、思维软件和思维克隆技术)。

埃德尔曼精彩地阐释了大脑的复杂性能够进行任何程度的主观思考。他提出,大脑在微观构成上的巨大数量通过变异和选择实现了这一过程(埃德尔曼所谓的神经达尔文主义),而非通过先验设计和逻辑。埃德尔曼的评估十分有说服力,他论述了大脑的功能源自一个设计原则:比起计算机网络的架构,它更像人类免疫系统的强化和适应能力。也就是说,当免疫系统遇到了它不能识别的入侵物的挑战时,它要么适应,要么死去。在人类进化的过程中,那些拥有强适应性免疫系统的人活了下来,比如他们拥有记忆T细胞、辅助性T细胞,而那些缺少这些细胞的人就没有遗传这些基因。同样,埃德尔曼还驳斥了“意识需要量子物理学来解释”的观点。不过,他并没有触及“意识是否也能够从关系型思维文件数据库和周期性思维软件算法中产生”这一问题。(15)

换句话说,埃德尔曼坚信“所有的篮球明星都很高”(即任何像人类大脑一样拥有非线性的复杂的神经路线——“篮球明星”都具有意识,或者“很高”)。但是,他无法从逻辑上辩驳“所有个子高的人都是篮球明星”(即所有意识必须是基于人脑的)。

最后,埃德尔曼提到,大脑不是计算机,因为大脑是由基因编码定义的,基因编码所受的限制远比神经的多变性数量多得多,而后者构成了成熟的大脑。但是,计算机软件同样不需要预先确定。我的计算机安装了微软系统,但是我写的文章的数量远远超过了软件包的数量。一般来说,计算机操作系统就像人类的遗传编码一样,能够创造几乎无限的可变性。

另外还有达尔文式算法,它支持软件代码进行类似于神经联结自我组合的行为。这类能够自我组合的代码十分有市场(就像神经元联结一样激发、连接在一起),这些代码能够更频繁地复制(就像用于思考或采取行动的神经通路)。这就像在社交网络上大规模转发的笑话或图片、音乐片段,或者大量的浏览、点赞和视频分享。所有这些代码都会在自我复制的达尔文式过程中重组为更大的代码组件(人类或机器人可以充当自然选择)。同样的过程也可以在语音识别、空间导航、聊天机器人(16)(或者自动化在线对话代理)等领域的代码中出现,但是黑客会“剪辑并粘贴”这个代码。为什么会有这么多网站让我们去解密看起来很奇怪的字母、数字字符串,来证明我们不是计算机Robomind(17)?因为机器人代码自我组装者(或者叫网络爬虫)已经在我们的生活中出现了。

我们也不应该将“黑客”(hacker)和“骇客”(cracker)相混淆。黑客是一群诚实的人,他们对计算机编程充满热情,并且有自己的道德准则——鼓励人们自由分享他们所创造的软件代码。而骇客则是一群试图突破计算机安全系统的程序员。

埃德尔曼终究还是一位生物本质主义者,他拒绝“思维可以从大脑(尤其是人类大脑)深层分离出来”这一想法。因为他坚持认为,思维是从神经达尔文主义中产生的——由于大量神经元相互竞争而产生的选择;他无法想象,思维可以从“计算机程序”中产生。另外一方面,埃德尔曼欣然承认,从思维中产生的大部分知识是科学分析无法解释的,这创造了人文学科的众多相似领域。我坚信,如果向埃德尔曼施加压力,他会承认思维能够创造出软件式思维,但是这个软件式思维的思考方式不会与起源自神经达尔文主义的有机体思维一样。

的确,大脑是复杂的:大约1 000亿个神经元密集地组合在一起,其中大多数都会向其他数千个神经元延伸出极纤细的联结,所有这些神经元都在深度和面积上与一件T恤的正面相仿。(18)多么壮观!信息技术同样十分复杂,一组微型芯片可以拥有1 000亿个组件,它们密集地组装在一起,大多数组件也会(以纳米级的宽度)向其他组件延伸出极纤细的连接。这再次让我们惊叹!婴儿出生时大脑的尺寸必须适合母体阴道腔的大小,而信息技术可以通过数千平方米的服务传播来支持离散集成电路之间的数以万计的连接,这种复杂性可以依靠无线传输进行。我相信,埃德尔曼和其他生物本质主义者已经完成了很多出色的工作,来证明在地球上的所有动植物中,只有人类大脑可以构想出思维克隆人基质,其结构与人脑的结构一样复杂。但现在,这种情况已经出现,且在快速发展。我们可以给出这样一个合理的命题:这种人造复杂度可以产生思维,就像我们的生物学复杂度一样。

图灵是对的!

法律系统很早以前就已经从实践上解决了意识的问题,即陪审团制度。我们这个社会习惯于让他人做出关于自己精神状态的决定性决策。例如,如果他人(陪审团)认为某人有犯罪的心理企图(以及做出犯罪行为),那么这个人就是在故意犯罪。有时,陪审团可能会因为某人心理状态不好或无意识,而认为这个人无罪,这些人会与有意识犯罪的罪犯被区别对待。同样,在帮助一些家庭做出有关照料至亲的决策时,常会有一组医学专家或宗教专家(取决于你是否有信仰)来协助判断一个处于植物人状态的病人的意识状态。

重要的是,最近对意识的科学研究已经发生了巨大的转变:从忽视到接受。一些科学家现在意识到,如果一个有意识主体的证词足够好,就可以作为实验变量来度量主体意识。例如,伯纳德·巴尔斯(Bernard Baars)总结道:

总的来说,有意识体验的行为报告已被证明是相当可靠的。尽管更直接的度量会更令人满意(比如通过大脑扫描发现的意识神经关联),而(意识的)可报告性为针对人类和部分动物的大脑研究提供了有益的客观标准。

换句话说,认知科学开始接受:根据评估主体对自己意识的报告,我们可以科学地判定某人是不是有意识的。但也有一些人担忧:思维克隆人可能会愚弄我们,非常聪明的机器人是人工智能,并不具有意识(也就是一些哲学家所说的僵尸),它们或许会伪装自己来骗取同人类一样的权利和身份。这种担心是多余的,因为认知科学家对自己的能力有足够的信心,他们不仅可以评判他人意识体验的报告,也可以证明这些报告在多大程度上符合实际的主观体验(即那些藏在主体大脑中让他们成为人,而非僵尸的东西)。巴尔斯继续谈道:

出于科学目的,我们倾向于使用有意识体验的公开报告。但是,一般来说,在客观报告和主观体验之间存在密切关联。对所有意图和目的而言,我们可以探讨现象学,将意识作为经验。这样看来,在现代科学中,我们正践行一种可验证的现象学。

如果思维克隆人从现象学上来说正在逐渐变得具有意识,那么它非常可能是对世界具有主观认知的有意识的存在。这与艾伦·图灵在1950年发表的经典论文《计算机器与智能》中所预测的如出一辙。就像上面提到的一样,约翰·塞尔已经阐释了为什么不可能存在完全由客观决定的、哲学家所谓的“意识”这种东西。意识是一个主观状态,虽然在现实世界中它确实存在。它只是无法由客观的第三人进行度量,因为根据定义,它是一个人的内心体验。塞尔指出:“只有当我们将行为视作内在意识过程的一种表现、一种效果时,行为对意识研究才是重要的。”这正是司法系统和专家评估过程的设计意图。

因此,明智的做法是通过社会系统任命专家,并且做出类似的决策,判定某人或某物是不是有意识的,以应对刑事判决或医疗系统之外的目的。对意识进行判定需要三个或更多专家达成统一意见,比如心理学家或伦理学家,以替代陪审团或者医疗和精神专家。很有可能,专业协会将颁发所谓的“思维克隆人心理学证书”(CMP),以更好地度量并对网络意识测定实施标准化。到那时,这些专业协会将成为思维克隆人最好的朋友之一。

当然,专家对意识做出的判断毕竟与完全客观的意识的评判不一样。毕竟,陪审团也有可能搞错:陪审团认为被告缺乏犯罪意图,而事实上,被告肯定有这样的恶意企图。医生要确定病人会不会进入长期昏迷状态,并在这些病人“醒来”时,询问病人几个感兴趣的简单问题。但是,当客观判断不可行时,社会很乐意接受同行或专家提出的意见,并且同时也接受错误判断也时有发生的事实。没有什么能够降低人类天生就面临的风险。

“不可度量”是生活的一部分,或者说是最美好的一部分。我们不应该因为无法理性地度量爱而回避表达爱,也不应该因为二次元方程无法解释艺术和音乐的吸引力而反对享受艺术和音乐。对意识来说也是一样的道理:如果有人,特别是心理学方面的专家,在思维克隆人中看到了他们大部分的自己,就说“那个存在是人类”,然后那个存在就是人类了。这种行为与罪犯被判有罪一样。

1950年,图灵提出,既然没有什么方式可以判断他人正在“思考”或“具有意识”,唯一的方法只有与被测者自己进行比较,同样的过程也可应用于据说有意识的计算机。他总结道:

“机器可以思考吗?”我认为讨论这个问题没有什么意义。但是我相信,在20世纪末,文字的使用和学识性观点会发生重要改变,人们将开始能够探讨机器思考,而不是否认。

如今,我认识的很多人都在等待他们的掌上电脑或智能手机提供搜索结果或者驾驶导航信息时,已经明确使用了“它正在思考”这种表达。看来,图灵是对的。

还有16年

2004年,全球最先进的机器人汽车在道路上“奋勇”通过了基本障碍(比如大型岩石和凹坑)。尽管配有价值数百万美元的高科技设备,这些汽车还是只能模拟人类司机很少的一部分驾驶行为。然而现在,它们可以调整车身“挤”入车位,在转弯时查看指示器,甚至在汇入车流的时候展现出如伦敦出租车司机般的高超车技。

《经济学人》,2007年11月

我们与网络意识的距离很近,近到足以在自己的胸口感受到网络呼吸的比特和字节。我们大步向前,在技术领域实现了突破,因此对网络意识,我们有了一定的期望和权利。你在使用网络搜索时,没有在几秒钟内得到结果,是不是时常会表现出沮丧的情绪?为了搞清楚我们的在线形象与思维克隆人之间的差距究竟有多大,有必要理解信息技术进步的指数性本质。或许,这一知识将使你更加了解哪种类型的数字化会让你在数字宇宙中维持分散状态。

人工智能专家雷·库兹韦尔在《机器之心》中指出,从20世纪50年代开始,每过一两年,信息技术的处理能力就会翻一番。例如,在今天价值100美元的手机拥有的计算能力要比20世纪六七十年代价值300亿美元的“阿波罗”号登月飞船还要强。90年代,语音识别技术还不存在,但仅仅10年以后,它就成了智能设备中的一个免费功能。

库兹韦尔等人提出,根据信息技术翻番进步的速率,我们有理由期待在21世纪20年代末迎来价值1 000美元的思维克隆人,或者在更早的时间以稍高的价格迎来它们。就像大多数技术奇迹一样,随着技术的进步和需求的增长,用不了多久,思维克隆人的价格就会下降。1997年,当夏普和索尼推出平板电视时,价格高达1.5万美元,远超大多数消费者的支付能力。现在,任何人都可以在亚马逊网站或沃尔玛超市,以这一数字的零头买到一台平板电视。

库兹韦尔将不同时期的信息处理能力与同一时期拥有同等信息处理能力的生物学生命形式进行了比较,如图1-2所示。我们看到,一直到2010年,计算机程序的计算能力还比不上一只老鼠或臭虫,而且并没有什么出彩之处。

图1-2 计算能力的指数级增长规模

不过,“思维克隆人将在更久的未来才会到来”这一假设存在两个误解。首先,许多专门应用已经远比非常聪明的人类还要聪明。例如,手机中的地图软件可以比人更迅速地在未知区域找到目标地址。尽管没有软件包可以像人类思维一样“海纳百川”,但计算机程序正快速进入许多我们投入了大量心力的领域,并取得了不错的成绩。距离软件能够“海纳百川”还有多远的距离呢?根据图1-2(19),在2020年,计算机拥有的处理器数量会像人脑拥有的神经元一样多。4库兹韦尔在《人工智能的未来》一书提到,到这个节点以后,人类将会需要另一个10年,也就是到21世纪30年代,人类将可以与基于软件的意识进行日常互动,而且这些意识是人类级别的。

其次,从心理学的角度来看,我们发现很难将思维克隆人这个概念视作新潮概念。这个原因与人类理解事物的方式(线性)和信息技术进步的方式(指数)之间的差异有关。线性事物发展的方式像孩子的成长,或许在它们达到稳定阶段前,每年只能前进一步或半步。这是我们进化出的理解“改变事物”和“改变形式所需时间”之间关系的线性方式。改变人们成长方式的事物每年都会线性地改变相同数量。因此,如果今天的一台常见计算机的处理能力和人类大脑之间的差距有100万倍,我们会自然而然地预测思维克隆人到来的时间:大约是用100万年时间除以每年计算机处理速度提高的速度。

举例来说,我刚使用一年的笔记本电脑拥有的信息处理能力大约是人脑的0.001%(它的处理速度大约是人脑神经元联结数量的零头,尽管某些领域的软件已经相当先进)。就大脑能力而言,虽然我的笔记本电脑拥有大约5 000亿比特的内存,但它在引领全新思维的数据与观点之间建立联系的水平甚至不如啮齿类动物。我的笔记本电脑的神经元能力大约比我的大脑皮层强15倍,但它仍然无法形成自己的原始想法或具备什么本能的顿悟能力。

现在,我能够买到拥有人脑能力0.002%的新计算机。按照这种速度,并且以线性思维工作的方式发展,我还要等待99 998年才能买到思维克隆人!线性思维占据了我们的大多数新体验,比如从具备人类大脑信息处理能力0.001%的计算机到具备人类大脑信息处理能力0.002%的计算机需要一年时间;根据这个进行推测,计算机需要998年甚至更长的时间达到人类大脑信息处理能力的1%,再过1 000年达到2%,再过1 000年达到3%,以此类推。

然而事实上,信息技术并没有呈线性式增长,而是呈指数级增长的。这意味着,根据摩尔定律,信息技术每一两年会翻一番。(20)因为计算机能力翻倍了,下一年我将获得相当于人类大脑信息处理能力0.004%的计算机,而非0.003%;再过一年,我将获得相当于人类大脑信息处理能力0.008%的计算机,而非0.005%。拥有信息技术,思维克隆技术将按照这种速度发展,如表1-1所示。

表1-1 思维克隆技术的指数级发展

在这里,有四点需要注意。第一,将计算机处理器的数量与人脑神经元的数量进行匹配,对思维克隆技术来说不是必需的。有研究称,人类只用到了大脑潜能的10%左右。如果我们在长大的过程中会讲5种语言,我们就会习以为常。如果不是这样长大的,那么我们也就学不会那么多语言。那些做过大脑切除手术的人,大脑功能依然相对正常。所以,我们所掌握的信息技术或许已经具备了创造思维克隆人所需的10%、20%甚至更高的水平。上述估算可以说是很保守的,因为人们总是持有一种有争议的乐观情绪。

第二,图1-3中的数字和时间只是近似值。例如,将1 024视作1 000,只是为了让数字更直观。类似地,尽管摩尔定律提到计算性能每隔一两年就会翻番,为方便理解,我们可以解读为计算能力每年都会翻番。如果周期为每两年一次,那么思维克隆人的出现时间就会从现在的16年变为32年;如果我们使用的周期是18个月,那么时间将变为24个月。关键是思维克隆人将在10年左右的节点出现,而非一代人、一个世纪或上千年。这关乎我们的生活。

图1-3 信息技术的指数级发展

第三,一些人对摩尔定律的正确性能维持多久产生了疑问。他们提出,当增长空间耗尽,指数级现象(比如培养皿中细菌的生长)就会终止。事实上,因为知识(不像细菌)可以无限制地增长,所以信息技术的翻倍增长也是没有限制的。知识是唯一一种你挖掘得越多、就有更多知识等你去挖掘的资源。几十年来,工程师已经为摩尔定律描述的增长路线设计好了线路图。例如,当平面集成电路达到增长上限时,计算机将会转变采用三维集成电路。这一技术已经存在。三维电路堆栈将芯片分隔在单独的模块中,即所谓的系统级封装(SiP)或多芯片模块(MCM)。2004年,英特尔推出了3D版本的奔腾4 CPU,2007年又推出了拥有堆栈(或叫3D)内存的、实验版本的八核设计。

第四,我们需要探讨人脑的计算能力和人类思维的软件能力之间的区别。拥有人脑的处理速度并不等于拥有重塑意识的必要技术。我们的思维依赖于某个非常接近1016个神经元联结的东西,因为我们知道,拥有较少神经元数量的其他动物并没有同人类一样的思维。但是,我们的思维独立于这些拥有偏好或“联结体”(即像思维软件一样的软件)的神经元联结,以产生类似人类思想、情感和反应的方式进行交叉关联。

全世界的聪明人都在不断打造将硬件优势发挥到极致的软件;卓越的软件甚至超越了人们对最好的硬件的性能预期。我们用上万行软件代码将人类送上了月球。今天,笔记本操作系统让我们可以使用大约一亿行代码同时观看视频、听音乐、浏览网页、给朋友发邮件、制作文件、操作电子表格。现在,全球有上万名专家在研究人类思维的逆向工程。我坚信,当必要的硬件处理器支持成为现实时,人们这些努力将会成功制造出思维软件。

如果将人类思维视作不可能或很难复制的机器,我会表示怀疑,因为它不是。人类思维非常擅于将不同事物及不同事物(包括感情)的各部分联系在一起;也非常擅长建立外部世界的实时模型,以及自我组织一个连续、合理的互相作用的自我。这些都是容易处理的问题。控制论的提出者、数学家诺伯特·维纳说过:“如果我们能够以清晰、易于理解的方式做任何事情,那么我们也能用机器做到。”创造思维软件的诱惑需要全球最优秀的神经科学家和软件工程师一起合作,反复推敲人类模型和思维软件代码的草稿。当必要的硬件(处理速度和强大内存)成为可能时,思维克隆人软件(人类思想)将会出现。

思维克隆人软件的出现或许会晚于21世纪20年代(例如,我们在赋予思维克隆人人类级别的意识之前,坚持呈现人类情绪的细微差别),或许要等到21世纪30年代(例如,在创建人类的人格特征时我们可以更高效地使用比大脑更弱的计算能力)。当我们坚信人类思想属于精神领域、是人工复制无法企及的东西时,思维软件将不会出现。在法律上,有一条原则叫“事实自证”,即事实会为自己说话。例如,如果枪口在冒烟,那就说明子弹被射出了;在现实中,有一条原则叫“标记法自证”,即信息为自己说话。如果一个被复制的思维为他人的幸福做出了牺牲,爱就会显现。就像某人在午夜冻醒,并为房间里的其他人盖上了毯子——拥有爱之感知力的思维克隆人也可以学会这种举动,并为另一个人这样做。

有些人自欺欺人地认为,网络意识和思维克隆人离我们还很遥远,因为人类的线性思维很难预测指数级现象。事实上,思维克隆人或许与朋克摇滚和苹果计算机诞生的时代相近。下面这些都是革命性事件:第一,短短20年间,手机从“几乎没人用”到“几乎人手一部”;第二,短短15年间,互联网从“军队玩具”变成了“世界的狂欢”。将思维克隆人从聊天机器人发展为人类模拟物,就好比将今天的学步儿童带进大学或者将今天的千禧一代带进职场,同样充满革命性。

2014年,斯坦福大学最受欢迎的研究生课程大多数与神经形态编程相关,即使用软件从环境(例如思维文件和大数据)中寻找信息,并且从这样的信息中学习实现目标的最佳方式(例如思维软件和人们通常做的方式)。“这反映了时代的精神。”索尔克研究所(Salk Institute)的计算神经科学家泰伦斯·特里·赛杰诺维斯基(Terrence Terry Sejnowski)这样说。泰伦斯开创了仿生算法。《纽约时报》高级科技记者、畅销书《人工智能简史》(Machines of Loving Grace(21)作者约翰·马尔科夫(John Markoff)曾在一篇文章中写道:“每个人都明白将有什么大事情发生,他们正试图搞清楚到底是什么事情。”

我意识到,直到有人将思维克隆人作为二重身,并说服其他人相信思维克隆人可以像人一样做梦和祈祷之前,意识或网络意识的辩论还会继续。相比花30亿年才实现的生物学或自然形式的达尔文式进化,网络生命或网络意识将会在须臾间完成,因为,意识的关键元素(比如自主和移情)是服从于软件编码的。而代码本身正以非常快的速度发生。成千上万位软件工程师正在努力推进网络意识的发展。美国政府正在参与人类基因组计划,希望绘制出大脑活动图——该项目致力于将大脑数十亿神经元的活动图表化,以加深人类对认知、行为以及意识的理解。2012年,谷歌研究人员使用机器学习算法(被称为神经网络)在没有人类监督的情况下执行了识别任务:它训练自己通过扫描有1 000万张图片的数据库,来识别出有猫的图片。这个方法似乎很简陋,但正是这种方法在改变计算机科学,并且该方法已经有了实际应用。一年后,谷歌使用同样的神经网络技术创建了一个搜索服务,帮助人们在上百万张图片中找到特定图片。

正如我将在下一章中讨论的,联合符号软件要达到人类思想和情感(即思维软件)的复杂程度,并聚集数十亿人已经创造的信息(即思维文件),构造出软件大脑(即思维克隆人)只需要几十年的时间。这才是真正的智能设计。