更新时间:2023-08-28 19:33:14
封面
版权信息
前言
第1部分 神经网络和深度学习
第1章 深度学习简介
1.1 神经网络
1.2 神经网络的监督学习应用
1.3 为什么深度学习会兴起
第2章 神经网络的编程基础
2.1 二分类
2.2 逻辑回归
2.3 逻辑回归的代价函数
2.4 梯度下降法
2.5 计算图
2.6 使用计算图求导数
2.7 逻辑回归中的梯度下降
2.8 m个样本的梯度下降
2.9 向量化
2.10 向量化逻辑回归
2.11 向量化逻辑回归的输出
2.12 Python中的广播
2.13 numpy向量
2.14 logistic损失函数的解释
第3章 浅层神经网络
3.1 神经网络概述
3.2 神经网络的表示
3.3 计算一个神经网络的输出
3.4 多样本向量化
3.5 激活函数
3.6 激活函数的导数
3.7 神经网络的梯度下降
3.8 理解反向传播
3.9 随机初始化
第4章 深层神经网络
4.1 深层神经网络概述
4.2 前向传播和反向传播
4.3 深层网络中矩阵的维数
4.4 为什么使用深层表示
4.5 超参数
第2部分 改善深层神经网络:超参数调试、正则化以及优化
第5章 深度学习的实践
5.1 训练、验证、测试集
5.2 偏差、方差
5.3 机器学习基础
5.4 正则化
5.5 正则化如何降低过拟合
5.6 dropout正则化
5.7 理解dropout
5.8 其他正则化方法
5.9 归一化输入
5.10 梯度消失/梯度爆炸
5.11 梯度的数值逼近
5.12 梯度检验
第6章 优化算法
6.1 mini-batch梯度下降
6.2 理解mini-batch梯度下降法
6.3 动量梯度下降法
6.4 RMSprop
6.5 Adam优化算法
6.6 学习率衰减
6.7 局部最优问题
第7章 超参数调试、正则化
7.1 调试处理
7.2 超参数的合适范围
7.3 归一化网络的激活函数
7.4 将batch norm拟合进神经网络
7.5 batch归一化分析
7.6 softmax回归
7.7 训练一个softmax分类器
7.8 TensorFlow
第3部分 卷积神经网络及应用
第8章 卷积神经网络
8.1 计算机视觉
8.2 边缘检测示例
8.3 边缘检测内容
8.4 填充
8.5 卷积步长
8.6 三维卷积
8.7 单层卷积网络
8.8 简单卷积网络示例
8.9 池化层
8.10 卷积神经网络示例
8.11 为什么使用卷积
第9章 深度卷积网络:实例探究
9.1 经典网络
9.2 残差网络
9.3 残差网络为什么有用
9.4 网络中的1×1卷积
9.5 谷歌Inception网络
9.6 迁移学习
9.7 数据增强
第10章 目标检测
10.1 目标定位
10.2 特征点检测
10.3 目标检测
10.4 滑动窗口的卷积实现
10.5 Bounding Box预测
10.6 交并比
10.7 非极大值抑制
10.8 Anchor Boxes