更新时间:2021-02-07 09:26:18
封面
版权信息
作者简介
数字版权声明
版权声明
O'Reilly Media Inc.介绍
译者序
前言
第1章 神经网络的复习
1.1 数学和Python的复习
1.2 神经网络的推理
1.3 神经网络的学习
1.4 使用神经网络解决问题
1.5 计算的高速化
1.6 小结
第2章 自然语言和单词的分布式表示
2.1 什么是自然语言处理
2.2 同义词词典
2.3 基于计数的方法
2.4 基于计数的方法的改进
2.5 小结
第3章 word2vec
3.1 基于推理的方法和神经网络
3.2 简单的word2vec
3.3 学习数据的准备
3.4 CBOW模型的实现
3.5 word2vec的补充说明
3.6 小结
第4章 word2vec的高速化
4.1 word2vec的改进①
4.2 word2vec的改进②
4.3 改进版word2vec的学习
4.4 wor2vec相关的其他话题
4.5 小结
第5章 RNN
5.1 概率和语言模型
5.2 RNN
5.3 RNN的实现
5.4 处理时序数据的层的实现
5.5 RNNLM的学习和评价
5.6 小结
第6章 Gated RNN
6.1 RNN的问题
6.2 梯度消失和LSTM
6.3 LSTM的实现
6.4 使用LSTM的语言模型
6.5 进一步改进RNNLM
6.6 小结
第7章 基于RNN生成文本
7.1 使用语言模型生成文本
7.2 seq2seq模型
7.3 seq2seq的实现
7.4 seq2seq的改进
7.5 seq2seq的应用
7.6 小结
第8章 Attention
8.1 Attention的结构
8.2 带Attention的seq2seq的实现
8.3 Attention的评价
8.4 关于Attention的其他话题
8.5 Attention的应用
8.6 小结
附录A sigmoid函数和tanh函数的导数
A.1 sigmoid函数
A.2 tanh函数
A.3 小结
附录B 运行WordNet
B.1 NLTK的安装
B.2 使用WordNet获得同义词
B.3 WordNet和单词网络
B.4 基于WordNet的语义相似度
附录C GRU
C.1 GRU的接口
C.2 GRU的计算图
后记
致谢
参考文献
文献