更新时间:2021-06-09 18:02:48
封面
版权信息
前言
第一部分 Embedding基础知识
第1章 万物皆可嵌入
1.1 处理序列问题的一般步骤
1.2 Word Embedding
1.3 Item Embedding
1.4 用Embedding处理分类特征
1.5 Graph Embedding
1.6 Contextual Word Embedding
1.7 使用Word Embedding实现中文自动摘要
1.8 小结
第2章 获取Embedding的方法
2.1 使用PyTorch的Embedding Layer
2.2 使用TensorFlow 2.0的Embedding Layer
2.3 从预训练模型获取Embedding
2.4 小结
第3章 计算机视觉处理
3.1 卷积神经网络
3.2 使用预训练模型
3.3 获取预训练模型
3.4 使用PyTorch实现数据迁移实例
3.5 小结
第4章 文本及序列处理
4.1 循环网络的基本结构
4.2 构建一些特殊模型
4.3 小结
第5章 注意力机制
5.1 注意力机制概述
5.2 带注意力机制的Encoder-Decoder模型
5.3 可视化Transformer
5.4 使用PyTorch实现Transformer
5.5 Transformer-XL
5.6 使用PyTorch构建Transformer-XL
5.7 Reformer
5.8 小结
第6章 从Word Embedding到ELMo
6.1 从word2vec到ELMo
6.2 可视化ELMo原理
6.3 小结
第7章 从ELMo到BERT和GPT
7.1 ELMo的优缺点
7.2 可视化BERT原理
7.3 使用PyTorch实现BERT
7.4 可视化GPT原理
7.5 GPT-3简介
7.6 小结
第8章 BERT的优化方法
8.1 可视化XLNet原理
8.2 ALBERT方法
8.3 ELECTRA方法
8.4 小结
第9章 推荐系统
9.1 推荐系统概述
9.2 协同过滤
9.3 深度学习在推荐系统中的应用
9.4 小结
第二部分 Embedding应用实例
第10章 用Embedding表现分类特征
10.1 项目背景
10.2 TensorFlow 2详细实现
10.3 小结
第11章 用Embedding提升机器学习性能
11.1 项目概述
11.2 使用Embedding提升神经网络性能
11.3 构建XGBoost模型
11.4 使用Embedding数据的XGBoost模型
11.5 可视化Embedding数据
11.6 小结
第12章 用Transformer实现英译中
12.1 TensorFlow 2+实例概述
12.2 预处理数据
12.3 构建Transformer模型
12.4 定义损失函数
12.5 定义优化器
12.6 训练模型
12.7 评估预测模型
12.8 可视化注意力权重
12.9 小结
第13章 Embedding技术在推荐系统中的应用
13.1 Embedding在Airbnb推荐系统中的应用
13.2 Transformer在阿里推荐系统中的应用
13.3 BERT在美团推荐系统中的应用
13.4 小结
第14章 用BERT实现中文语句分类
14.1 背景说明
14.2 可视化BERT注意力权重
14.3 用BERT预训练模型微调下游任务
14.4 训练模型
14.5 测试模型
14.6 小结
第15章 用GPT-2生成文本
15.1 GPT-2概述
15.2 用GPT-2生成新闻
15.3 微调GPT-2生成戏剧文本
15.4 小结
第16章 Embedding技术总结
16.1 Embedding技术回顾
16.2 Embedding技术展望