第二节 从崛起到爆发:人工智能的进化路径
上一小节中,我们谈到了人工智能三大要素分别是算力、算法和数据。而人工智能的进化路径,同样也是基于这三大要素的崛起与爆发。
深度学习崛起
首先,我们要说的是,人工智能算法模型的演进过程。
20世纪80年代,一位叫作杰弗里·辛顿的英国学者,发表了一篇阐述多层神经网络训练方法的论文,主题是探索如何用计算机系统来模拟人类大脑。在此后的几十年里,无数人工智能领域专家都在研究,如何实现辛顿这篇论文里的愿景。多层神经网络训练就是我们现在所说的深度学习原型,也是人工智能技术的终极形态。
什么是深度学习呢?它是机器学习里的一个核心研究方向,其最终目标是让机器能够像人一样具有分析学习能力,能够识别文字、图像和声音等数据。
虽然辛顿在深度学习领域做出了较大的贡献,却因为其模型运算结果不理想,一直无法获得学术界的认可,这一拖就是30年。转机出现在2012年,两位华裔科学家让深度学习突破了技术瓶颈,他们分别是斯坦福大学教授吴恩达和李飞飞。
作为当今全球人工智能领域最权威的学者之一,吴恩达不仅是斯坦福大学计算机科学和电子工程学的学术风向标,更因其一手创建并领导了谷歌深度学习团队,被业界誉为“谷歌大脑之父”。他通过研究发现,深度学习需要计算机拥有强大的运算能力,随即与英伟达公司展开合作,共同开发出了计算性能极强的图形处理器GPU,彻底解决了之前算力不足的问题。如今,这一芯片已被广泛用于人工智能研究的各个领域,为相关技术发展带去极大的算力支持。
另一位科学家李飞飞,则是当今人工智能领域成就最大的华裔女性,担任斯坦福大学红杉讲席教授,以及美国国家工程院院士。她的主要贡献在于参与建设了两个数据库:Caltech 101和ImageNet。尤其是ImageNet,已经成为当今全球最大的图像识别数据库。凭借这两个数据库,李飞飞成功开发出了视觉能力超过人类的人工智能图像识别系统。
他们的研究成果,间接证明了三个事实:第一,人工智能需要计算机系统极强的运算能力;第二,训练对于人工智能系统非常重要;第三,深度学习是人工智能系统中最合适的模型。
吴恩达和李飞飞的研究贡献,彻底改变了人工智能学术界对深度学习的看法。2012年,在斯坦福大学举办的一项人工智能算法大赛上,深度学习大放异彩,一举夺得桂冠。
至此,折腾了30多年的深度学习模型才奠定了自己在人工智能领域的地位,其在语音和图像识别方面取得的进展,远远超过先前的相关技术,也深刻影响了之后人工智能的研究方向。
其实,深度学习并不是人工智能唯一的运算模型,还有许多有价值的模型仍在试验当中,它们的应用范围相对较小。比如,美国科学家杰夫·霍金斯的记忆预测模型也比较出名,它的运算过程与人脑更加接近,但同样因为结果不理想而暂时不被外界认可。
又比如,决策树也是比较常见的运算模型。它主要被用来评价项目风险和判断其可行性。但缺点也很明显,它没办法处理一些连续字段,而且当数据类型较多时,需要先对数据进行人工分类和清洗,诸如此类的限制比较多。
算力:GPU挑大梁
实际上,传统的CPU芯片发展已经在2010年出现疲态,体积越来越小,晶体管越来越多,边际效益上已经很难再有大幅提升。就在这个时候,科学家们发现了图形处理器GPU。
经常玩电脑游戏的人应该知道,显卡主要是由GPU构成的,用于游戏图像的渲染。它里面的核心是一个叫作“shader”的运行单元,专门用于像素、顶点、图形等渲染,这恰好与人工智能的图像识别能力相匹配。
只需要为GPU加入可编程的功能,就能够承担与CPU同样类型的工作,从而弥补因CPU性能不足而导致的算力发展瓶颈。
人工智能的终极目标是模拟人脑,人脑大概有1000亿个神经元,1000万亿个突触,能够处理复杂的视觉、听觉、嗅觉、味觉、语言能力、理解能力、认知能力、情感控制、人体复杂机构控制、复杂心理和生理控制,而功耗只有10~20瓦。
功耗低、运算能力强是衡量芯片水平的主要指标,从这个方向去看,我们可以用直观的数字进行对比,体会一下CPU与GPU之间的差距:
如果每秒钟处理4.5万张照片,需要160个CPU芯片同时参与计算,而GPU芯片却只要8个。能耗差距也比较大,GPU的电力消耗只有CPU的二十分之一。
大家千万不要小看这样的技术进步,表面上它代表着人工智能领域的阶段性突破。从更深层次来说,这些数字的背后,代表着企业巨大的采购成本与运营成本。正是因为更有性价比的GPU芯片的应用与推广,彻底降低了人工智能领域的参与门槛。在这之后,许多中小企业甚至个人都敢于加入人工智能领域的竞争中来,从而推动了整个行业的良性发展。
数据:4G积淀,5G爆发
在算力得到大幅提升的同时,互联网产生与积累的海量数据样本,也是人工智能在此时爆发的重要原因。
在互联网时代,微信、微博和推特等社交网络的发展,汇聚了大量的用户资源,这些用户为各个平台带去了海量的个体社交数据。而淘宝、亚马逊和京东等电商平台的活跃,则提供了庞大的商品信息数据、消费者购物偏好和购买习惯数据。
实际上,目前人工智能领域最亟待解决的,就是数据获取的问题。拥有这些数据的大公司,可以将其作为训练数据投入相关算法模型系统中,收获人工智能的应用成果。所以,我们目前所看到的大部分人工智能企业,都曾经是互联网时代的头部企业。比如百度、阿里巴巴、腾讯、亚马逊和谷歌等,除了基础的技术优势之外,它们与小企业最大的不同,就是天然拥有一个实时更新的数据库,用来训练自己的人工智能系统。
至此,人工智能的三大要素已经具备。那么,接下来人工智能就能乘势而起了吗?答案是否定的。评价一项技术是否成熟的标准,就是能否顺利完成商业化落地。很多时候,这一过程远比技术研究更为艰难。
就拿国内人工智能的头部企业百度和科大讯飞举例。
百度的人工智能转型战略和谷歌类似。这家靠技术驱动的公司,一开始便投入大量的资源和资金,押宝技术门槛较高的无人驾驶领域,不断从全球高薪聘请专业人才。2013年,百度创建了阿波罗(Apollo)自动驾驶平台,并在之后的几年中不断发展壮大,还联合了福特、奔驰和微软建立开发者生态。
虽然阿波罗技术先进,但此后的商业化落地却不那么成功。首先,自动驾驶汽车缺乏足够的耐久性试验;其次,像激光雷达、传感器等重要零部件,完全达不到大规模量产的要求;最为重要的是,许多与百度合作的车企,对于自动驾驶技术的需求并不迫切,不过是想借着百度的名号“蹭一蹭”自动驾驶的热度去迎合市场。
而以语音人机交互为核心技术的科大讯飞,在创业之初也是在产业化上四处碰壁。董事长刘庆峰对此有过反思:“恨不得今天做个语音掌上电脑,明天又做个语音听写软件,后天再搞个工商查询系统。”经历了团队信心动摇、资金捉襟见肘和业务方向调整等一系列困难后,科大讯飞最终还是在电信运营商服务与普通话考试教育上,找到了产业化的突破口。
看完了百度和科大讯飞的案例之后,我们大概可以总结出目前人工智能企业面临的两大难题。
最直接的,就是持续不断的人才招募压力。我们知道,人工智能是一个更新速度很快的技术领域,今天一个新算法,明天一个新模型,企业需要不断地去追逐顶尖技术,才能收获市场的关注度。
那么,如何才能跟上市场的脚步呢?让员工现学肯定是来不及的,最简便的办法就是不断地招募最顶尖、最前沿的技术人才。招到了问题解决,招不到落后市场一截,这是许多人工智能技术型企业面临的问题。
另一方面就是利润兑现。企业不同于高校和研究机构,不可能无止境地进行投入。所有资金、人力和时间的投入,都需要在规定时间内看到回报。最近几年,尽管人工智能热度异常高,但没有几家企业收益能够让人满意,大部分还是“叫好不叫座”的状态。因此,我们也有理由相信,这一状态可能还会持续很长时间。
技术型企业正面临步履维艰的困境,但反观IT硬件消费领域,人工智能却呈现了另外一番景象。小米、苹果和大疆这些以硬件为主的厂商,凭借着敏锐的嗅觉,很快就以“轻技术”的形式切入了人工智能市场,并让智能手环、无人机和智能家居等许多智能化产品进入了千家万户。
其实这个过程并不复杂,品牌只需要在常规的IT硬件消费品中,加入一些智能化的科技元素,比如语音交互、智能控制和远程遥控等,就能很快与同类型产品拉开差距。
也许你会说,这些产品并不是真正意义上的人工智能,有些甚至只是概念炒作。但就像我们之前提到的那样,它们既有硬件入口,又有软件技术,完美地构成了一个人工智能产品循环。在这个基础上,企业可以进一步完成技术的升级迭代,越来越靠近真正的人工智能。需要强调的是,只有人工智能真正融入普通大众,成为人们日常生活中不可分割的一部分,它的产业化应用才算成功。
其实,对于人工智能,我们大可不必纠结太过遥远的未来,把现有的技术成果快速投入产业实践中去,才是人工智能获得成功的关键一步。