更新时间:2022-07-22 09:45:13
封面
版权信息
序
前言
第一部分 入门篇
第1章 机器学习预备知识
1.1 引言
1.2 关键术语与任务类型
1.3 机器学习三要素
1.4 机器学习核心
1.5 机器学习流程
1.6 NumPy必学必会
1.7 sklearn简介
1.8 章节安排
1.9 小结
第二部分 监督学习单模型
第2章 线性回归
2.1 杭州的二手房房价
2.2 线性回归的原理推导
2.3 线性回归的代码实现
2.4 小结
第3章 对数几率回归
3.1 App开屏广告
3.2 对数几率回归的原理推导
3.3 对数几率回归的代码实现
3.4 小结
第4章 回归模型拓展
4.1 回到杭州二手房房价
4.2 LASSO回归原理推导
4.3 LASSO回归的代码实现
4.4 Ridge回归的原理推导
4.5 Ridge回归的代码实现
4.6 小结
第5章 线性判别分析
5.1 LDA基本思想
5.2 LDA数学推导
5.3 LDA算法实现
5.4 小结
第6章 近邻算法
6.1 “猜你喜欢”的推荐逻辑
6.2 距离度量方式
6.3 近邻算法的基本原理
6.4 近邻算法的代码实现
6.5 小结
第7章 决策树
7.1 “今天是否要打高尔夫”
7.2 决策树
7.3 特征选择:从信息增益到基尼指数
7.4 决策树模型:从ID3到CART
7.5 决策树剪枝
7.6 小结
第8章 神经网络
8.1 无处不在的图像识别
8.2 从感知机说起
8.3 从单层到多层
8.4 神经网络的广阔天地
8.5 小结
第9章 支持向量机
9.1 重新从感知机出发
9.2 线性可分支持向量机
9.3 近似线性可分支持向量机
9.4 线性不可分支持向量机
9.5 小结
第三部分 监督学习集成模型
第10章 AdaBoost
10.1 什么是Boosting
10.2 AdaBoost算法的原理推导
10.3 AdaBoost算法实现
10.4 小结
第11章 GBDT
11.1 从提升树到梯度提升树
11.2 GBDT算法的原理推导
11.3 GBDT算法实现
11.4 小结
第12章 XGBoost
12.1 XGBoost:极度梯度提升树
12.2 XGBoost算法的原理推导
12.3 XGBoost算法实现
12.4 小结
第13章 LightGBM
13.1 XGBoost可优化的地方
13.2 LightGBM基本原理
13.3 LightGBM算法实现
13.4 小结
第14章 CatBoost
14.1 机器学习中类别特征的处理方法
14.2 CatBoost理论基础
14.3 CatBoost算法实现
14.4 小结
第15章 随机森林
15.1 Bagging:另一种集成学习框架
15.2 随机森林的基本原理
15.3 随机森林的算法实现
15.4 小结
第16章 集成学习:对比与调参
16.1 三大Boosting算法对比
16.2 常用的超参数调优方法
16.3 小结
第四部分 无监督学习模型
第17章 聚类分析与k均值聚类算法