2.2 人工智能产品的发展史
人工智能产品的发展是伴随人工智能理论及技术的发展而成长的。人工智能理论从诞生到现在,经历过寒冬,也经历过辉煌。从1958年第一个人工智能程序Logical Service诞生后,就相继出现了各种人工智能专家系统,但这些系统并没有完全市场化。直到20世纪80年代中期,人工智能产品才有了质的飞跃,其根本原因是20世纪80年代中期,科学家发明了决策树,出现了机器学习。
同样是在19世纪80年代中期,科学家还发明了多层人工神经网络。多层人工神经网络是在原来的两层神经网络中增加了多个隐藏层。原来的神经网络只有两层,即输入层和输出层,如图2-1所示。输入一个N维向量i=[ij,ij+1,…,in],其中每一个分量对应一个权值Wj;输入的数据,经过乘积运算后直接输出结果,这种两层的神经网络主要用于感知机,即直接根据输入进行反馈,而多层人工神经网络意味着在输入层和输出层之间存在多个隐藏层,这标志着人工神经网络可以处理更加复杂的问题,突破了单层感知机的局限性。
图2-1
20世纪80年代后,人工智能的发展进入了低谷期,直到1993年人工智能才又取得了突破性进展,其中代表性的人工智能产品如下。
IBM研发的深蓝如图2-2所示,有32个微处理器,每秒可以计算2亿步,且输入了200多年来200多万局优秀棋手的对局。1997年,深蓝以3.5∶2.5的总比分战胜了国际象棋冠军卡斯帕罗夫,成为世界上第一台赢得国际象棋比赛的人工智能产品。
图2-2
2005年,斯坦福大学的机器人车辆Stanley在机器人挑战大赛中获得了冠军,如图2-3所示。机器人挑战大赛是由美国国防部在2003年发起的,是为了鼓励企业或个人在无人驾驶等人工智能上的创新。该挑战大赛要求参赛机器人通过自动驾驶系统在142英里(1英里≈1.61千米)的道路上完成比赛,总耗时不得超过10小时,难度相当大。2005年的比赛,共计注册了195支队伍,最终完成比赛的只有5支队伍。斯坦福大学的机器人Stanley第一个完成了任务,用时为6小时53分58秒。
图2-3
2006年,Geoffrey Hinton联合他的学生在Science杂志上发表了名为《深度学习》(Deep Learning)的论文,使深度学习这个词引起了极大的关注。同样也是由于这篇论文的发表,人工智能又成了科技界的焦点。
2011年,IBM公司的Watson在智力问答比赛Jeopardy中战胜了两位前智力问答冠军,获得了100万美元的大奖。
2011年,谷歌公司启动了一个项目——谷歌大脑(Google Brain),如图2-4所示。该项目是“Google X实验室”的一个主要研究项目,其将16000台计算机连接成一个计算机处理器群,组成全球为数不多的大型中枢网络系统,能自主学习,致力于模仿人类大脑。例如,谷歌大脑通过对1000万张图像的学习,可以成功地识别一只猫。
图2-4
2012年,苹果公司推出了Siri,如图2-5所示。Siri是语音控制的智能个人助理和知识导航软件,用户可以利用Siri读短信、询问天气、询问路程规划、用语音设置闹钟等。Siri可以支持自然语言输入,并且可以调用其他应用系统,如天气预报、日程安排、搜索资料等。另外,Siri还能够不断学习新的声音和语调,提供对话式的聊天。2017年,苹果公司在WWDC开发者大会上,为Siri增加了实时翻译功能,支持英语、法语、德语等,而且Siri的智能化还在不断提升,如支持上下文的预测功能,用户甚至还可以用Siri作为Apple TV的遥控器。
图2-5
2012年,微软公司的首席研究官瑞克拉·希德到中国天津出席研讨会时,演示了一款实时口译系统——“英中双语通用翻译器”(Real Time English to Chinese Universal Transport)。这个翻译器可以将演讲者讲的英语自动翻译成中文,并且将中文通过语音合成的方式发出声音来。这款翻译器引起轰动的原因不仅仅是其翻译准确,更是因为翻译播放的语音还保持了演讲者口音和腔调的特点,就像演讲者本人在使用中文演讲一样。
2014年4月,微软公司正式推出Cortana,其是一款运行在Windows Phone上的个人助理软件。2014年6月,微软公司又推出了聊天机器人小冰,如图2-6所示,人们可以和小冰用自然语言进行自由交谈。
图2-6
2014年8月,一款名为“尤金·古斯特曼”(Eugene Goostman)的聊天机器人问世,如图2-7所示。在纪念图灵逝世60周年的一个比赛上,有33%的裁判认为“尤金·古斯特曼”是人类,因此主办单位按照图灵测试的规则,宣布“尤金·古斯特曼”已经通过了图灵测试。这也是人工智能产品第一次通过图灵测试。
图2-7
2014年8月,IBM公司发表了类似于人脑的TrueNorth芯片,这是一款神经形态的COMS芯片,由4096个硬件核心组成,每个硬件核心可以仿真256个可编程的硅神经元,总计刚好超过百万个神经元。图2-8所示为集成了16块TrueNorth芯片的电路板。
图2-8
2015年2月,谷歌公司在Nature杂志上发表了“Deep Q Network”(DQN),这款神经网络通过深度强化学习可以达到人类水平的操控。运用DQN在20世纪七八十年代的一款老式的视频游戏机上对49个视频游戏软件进行了测试,测试的结果为59.18%,达到或者超过了人类的水平。图2-9展示了DQN的逻辑架构。
图2-9
2015年12月,谷歌DeepMind开发的一款计算机围棋程序AlphaGo打败了欧洲围棋冠军樊麾,成绩是5战5胜。这是计算机围棋软件第一次击败人类的职业围棋手。不过这个消息一直到2016年1月27日才在Nature杂志上发表,据称是为了与描述该算法的论文保持同步。
2016年3月,举世闻名的围棋人机世纪大战在韩国首尔举行,由AlphaGo对战韩国九段职业棋手李世石,结果AlphaGo以5战4胜的成绩赢得了比赛。2017年,世界围棋等级分排名第一的柯洁对战AlphaGo,这场“世纪大战”不仅有与柯洁的个人赛,更有混合战,由5位棋手联合对战AlphaGo。针对这次比赛,柯洁曾表示:“300年前人类发明了蒸汽机,超越了当时人类想象。如今谷歌DeepMind发明的AlphaGo也超出了所有棋手的想象,在与它对决时感觉就像在对话未来,感受非同凡响。”最终这场比赛还是人类告负,比赛结束后AlphaGo在世界围棋等级分排名中稳居第一。
2019年1月25日,DeepMind公司研发的AlphaStar以总比分2∶0的战绩战胜了两位《星际争霸2》的人类职业选手。这是自2017年AlphaGo在围棋上战胜人类之后再次刷新人类对于AI的认知的人机大战。《星际争霸2》是一款即时战略游戏。虽然围棋中可能出现的局面总数是一个天文数字,但具体到每一回合中,比赛的双方只需要选择在棋盘的某一处落一颗棋子即可。相比之下,现代的竞技类电子游戏的行动空间就复杂得多。《星际争霸2》是在一个充满迷雾的地图中采集不同资源,根据资源情况建造不同类型建筑,并生成不同类型的兵种与对手对抗。比赛时,需要考虑平衡多个信息,如收集资源情况、资源消耗情况、自身的发展模式、兵种配合,并实时侦察对手的资源情况、资源消耗、对手的兵种,而且还要注意对手的侦察、偷袭,可以说《星际争霸2》模拟了一整套人类战场的状态。另外,在战争发生时,双方还要根据战场状况实时调整各个兵种的站位、消耗,以及后续的兵种补给。也正是《星际争霸2》的战场空间宏大、动作空间连续、变化形式无穷,以及视野受限等诸多因素,使《星际争霸2》成为AI界难以攻克的游戏之一,如图2-10所示。
图2-10
与AlphaStar对战的是世界排名第68位的TLO和排名第19位的MaNa,虽然这两位也属于世界一流选手,但在与AlphaStar对战中,他们分别以0∶5和1∶5落败。DeepMind公司研发的AlphaStar与AlphaGo一样采用了强化学习,让AI模仿人类玩游戏的方式操作。AlphaStar把游戏看作长序列建模学习任务,在进行强化学习时,它的模型设计也以长序列建模为核心。模型从游戏接口接收的数据是单位列表和这些单位的属性,经过神经网络计算后输出为游戏中的执行指令。AlphaStar的神经网络的基础是Transformer网络,并且结合了一个深度LSTM网络核心、一个带有指针网络的自动回归策略头,以及一个中心化的评分基准。这样的网络架构是DeepMind公司对复杂序列建模任务的最新思考结果,他们相信这样的先进模型会在其他需要长序列建模、有很大行动空间的机器学习任务中拥有优秀的表现,如天气预测、气候建模、语言理解等。