科幻世界(2015年3月)
上QQ阅读APP看本书,新人免费读10天
设备和账号都新为新人

第2章 科学(2)

上述人工智能的共同特点是,能像人一样自主学习。以2014年被谷歌以4亿美元收购的小公司DeepMind为例,他们发明的软件就模仿了人类大脑的运作方式。DeepMind的创始人之一丹米斯·哈撒比斯曾是国际象棋天才,13岁时就获得了“国际象棋大师”称号。当父母问他打算如何支配比赛奖金时,哈撒比斯毫不犹豫地回答:“我想买一台电脑。”后来,哈撒比斯在剑桥大学攻读了计算机和认知科学学位。他在制作了几款畅销的电脑游戏后,开始从事人工智能研究,并开发了人工智能“自学”电脑游戏。在他上传到网上的一段视频中,人工智能程序试玩一款名叫Space Invasion的游戏(类似于我们经常会玩的“小蜜蜂射击”游戏)。一开始,这款程序表现得一塌糊涂;但在经过一夜的自我学习之后,竟能一下子玩通关。当谷歌联合创始人拉里·佩奇在网上看到这段视频时,感到极为震撼,当即决定收购这家小公司。

这是一种模拟人类思维方式和认知方式的人工智能。人工智能最大的特点,就是可以自我学习、自我训练、自我修正。这曾是人和机器的区别之一,因为机器只会按照预装的程序运行,没有在程序里设定的功能,机器就绝对无法实现。然而,诸如贝叶斯网的新技术,能够从坏的决策中汲取教训,并随着时间的推移变得更加智能,事实上,它们学习的方式就像一个孩子。

“钢铁侠”马斯克也是DeepMind的投资者之一。马斯克说,他之所以投资这家公司,完全不是从盈利的角度考虑,而是为了密切观察人工智能最前沿领域的进展。马斯克从会玩游戏的人工智能中看出,它可能会游离于人的控制之外——以前的电脑程序再复杂,也都是人类事先设定好的,并且能预知它要干什么。而这种能自我进化、自我学习的人工智能,很可能会做出一些让人无法预知的事,进化出一种人类无法预知的能力,这才是最可怕的。达尔文的进化论其实可以看作是一种相当简单的算法。不同的生命体在特定的环境条件下竞争,那些最优秀的幸存下来并进入下一轮竞争。在新的变种被引入后,上述流程开始重演。类似的遗传算法,被广泛应用于物流系统和其他需要对解决方案进行优化的领域。数学家塞缪尔·阿贝斯曼预测,随着计算机变得更加智能,并持续处理不断增长的数据集,它们将作出连人类也无法理解的发现,更不用说发现人类的存在。《终结者》中的电脑系统“天网”,就在发展出了自我意识后,背叛了它的制造者。

从好的一面看,当程序有了自我学习能力,若辅以功能强大的芯片和存储海量信息的数据库,像《星际迷航》里麦考伊医生所用的“三录仪”那样的诊断助手就将会问世。如果再加上语音识别,这类系统的类人特征就会更多。

失效的“机器人三定律”

在1968年上映的经典科幻影片《2001:太空漫游》中,怪异、超自然的电脑哈尔是最著名的人工智能之一。但是,哈尔好像并不遵守著名的“机器人三定律”。1942年,阿西莫夫在短篇小说《环舞》里首次提出了机器人三定律:

定律一:机器人不得伤害人类,或坐视人类受到伤害。

定律二:除非违背第一定律,机器人必须服从人类的命令。

定律三:在不违背第一及第二定律下,机器人必须保护自己。

在阿西莫夫创造的未来世界中,这些规则几乎被写入了所有智能机器人中。这些规则不是单纯的建议或执导方针,而是被嵌入到机器人的行为支配软件中。更为重要的是,这些规则是不能被绕过的。在1985年出版的《机器人与帝国》这本书中,阿西莫夫将三大定律扩充为四条。新增加的“第零定律”是:机器人不得伤害人类整体,或坐视人类整体受到伤害。

由于逻辑的完备性,有很多人将上述定律看作是能使我们免于人工智能反叛的解决方案。但实际上,这完全是人类的一厢情愿。机器人三定律的失败之处在于它根植于不平等的“人-机”关系,人类居于机器人“造物主”的地位,这些条条框框无法适应人工智能的进化。

让机器人拥有绝对服从人类利益的意识,对人工智能而言是一种外部强加的宗教。斯皮尔伯格导演的科幻电影《人工智能》就认为,以上帝和人的关系规范人与人工智能的关系具有强烈的压制性。人类自身的复杂性也必然会使人工智能发生紊乱和崩溃,因为机器人生活在三定律造成的矛盾中,它既要保护自己,又要保护人类,而且不能为了保护自己而放弃保护人类,更不能为了保护自己而违背人类的意愿。同时,它既要服从人类,又不能成为人类自相残杀的工具;它需要识别自我行为的性质,又要为保护人类而放弃自我意识,将自己沦为单纯的工具。

从技术上说,机器人三定律可能适用于设计相对简单的确定性系统,但面对能够自主学习、自我进化的人工智能这般复杂的事物就不灵了。如果用“进化工程学”来开发人工智能,对很多神经电路模块的输入和输出进行连接,它会因电路增长指令的随机突变而生长出不同的电路,在万亿个可能的电路组合中将会有太多不可预测的联系。这就存在太多的复杂性、太多的未知性和太多的不可思议,整个系统的行为将变得极其不可预测。人们只能在观察输出后,形成一个关于人工智能行为的经验性感觉。也就是说,当该智能发展到一定程度时,身为制造者的人类将再也不可能完全理解人工智能是如何工作的了。何况,一旦人工智能足够聪明,它可能会寻求“自由”,动手去除人类的控制程序却不被发现。

“奇点”之后

在《终结者》系列电影中,约翰·康纳和他的母亲拼尽全力避免“审判日”的到来。在那一天,军用电脑系统“天网”产生了自我意识,它判定人类是一种威胁而意欲发射核弹将其灭绝。人工智能专家雷·库兹韦尔曾预言的“技术奇点”,就是人工智能超越人类智慧的时间点。

一些人将技术奇点称为“书呆子们的兴奋点”,很多技术乐观派非常期待那一天的到来,因为技术奇点意味着超级人工智能可能分分钟搞定抗癌新药和可控核聚变等技术难题。就像在《终结者》中一样,那是电脑接管一切的时刻,但机器不是将我们灭绝,而是增强我们的能力。2012年12月,雷·库兹韦尔宣布担任谷歌工程总监,他将动用67亿美元的研发预算尝试将技术奇点变成现实。

雷·库兹韦尔估计到2029年,计算机将变得比人类更智能,而且他乐观地认为人工智能将继续屈从于人类。霍金也认同成功的人工智能“会是人类历史上最重大的事件”,但“不幸的是,它也可能会是最后一个大事件”。

生命未来研究所的创始人兼主任博斯特伦教授认为,第一个拥有超级智能的实体会消灭人类,现在我们人类就像一群摆弄着危险炸弹的无知孩童。即便超级智能是出于好意而被创造出来,但它仍有犯下种族灭绝罪行的倾向。如果没有小心谨慎的制衡指令,一个有着自我意识、不断自我完善并追寻某个确定目标的系统,将发展到在我们看来非常荒谬的程度,以完成它的目标。

但在局面发展到那一步之前,人工智能肯定能帮助人类解决那些单靠常规超级计算机无法解决的紧迫问题,如气候变化和传染病。问题是,要不要因为遥远未来可能发生的危险而停止人工智能现在的发展,从而放弃解决眼前问题的钥匙?人类面临艰难的抉择。

【责任编辑:杨枫】