TensorFlow与自然语言处理应用
上QQ阅读APP看书,第一时间看更新

2.6 多层神经网络(深度学习)

2.6.1 简述

人工神经网络在被人摒弃的10年中,有几个学者仍然在坚持研究,其中的典型代表就是加拿大多伦多大学的Geoffery Hinton教授。

2006年,Hinton在《Science》和相关期刊上发表了论文,首次提出了“深度信念网络”的概念。与传统的训练方式不同,“深度信念网络”有一个“预训练”(Pre-Training)的过程,可以方便地让神经网络中的权重值找到一个接近最优解的值,之后再使用“微调”(Fine-Tuning)技术来对整个网络进行优化训练。这两个技术的运用大幅度减少了训练多层神经网络的时间。他给多层神经网络相关的学习方法赋予了一个新名词——“深度学习”。

很快,深度学习在语音识别领域崭露头角。接着,2012年,深度学习技术又在图像识别领域大展拳脚。Hinton与他的学生在ImageNet竞赛中用多层的卷积神经网络成功地对包含一千类别的一百万张图片进行了训练,取得了分类错误率15%的好成绩,这个成绩比第二名高了近11个百分点,这充分证明了多层神经网络识别效果的优越性。

在这之后,关于深度神经网络的研究与应用不断涌现。

关于CNN(Conventional Neural Network,卷积神经网络)与RNN(Recurrent Neural Network,循环神经网络)及其变体LSTM的架构,我们会在后面的章节中进行单独解读,这里不做过多阐释。

2.6.2 多层神经网络结构

我们延续两层神经网络的方式来设计一个多层神经网络。

在两层神经网络的输出层后面,继续添加层次。原来的输出层变成中间层,新加的层次成为新的输出层,可以得到图2-11。

图2-11 多层神经网络

依照这样的方式不断添加,我们可以得到更多层的多层神经网络。公式推导的话其实跟两层神经网络类似,使用矩阵运算的话就仅仅是加一个公式而已。