计算机
类型
可以朗读
语音朗读
176千字
字数
2020-08-01
发行日期
展开全部
主编推荐语
深度学习入门到精通:详解Pytorch技术,10章实践案例。
内容简介
本书以深度学习为核心,详细讲解Pytorch技术堆栈,力求使用最直白的语言,带更多的小白学员入门甚至精通深度学习。本书共分为10个章节,前五个章节主要讲解深度学习中的基本算法及概念,通过使用Pytorch实现经典的神经网络并辅以”课后加油站”小节补充数学知识,力求让每一个知识点、每一个章节、每一个实验都能在学员脑海中留下印象,做到看了能做、做了能会、会了能用。后面五个章节作为Pytorch的进阶,会讲使用Pytorch构建深度神经网络、使用HMM实现中文分词、训练聊天机器人等有意思的小实验。引入当下最流行的自然语言预训练模型如Elmo、BERT等,教会读者使用自然语言利器AllenNLP及高阶框架FastAI。最后一章讲解当下最流行的图嵌入技术,对知识图谱感兴趣的童鞋可以深入的研究。
目录
- 封面
- 前折页
- 版权信息
- 内容简介
- 前言
- 第1章 初识PyTorch
- 1.1 神经网络发展简史
- 1.1.1 神经网络的前世今生
- 1.1.2 深度学习框架对比
- 1.2 环境安装
- 1.2.1 Python环境的选择及安装
- 1.2.2 PyTorch 1.2的安装
- 1.2.3 开发环境IDE
- 1.3 PyTorch的核心概念
- 1.3.1 PyTorch的基本概念
- 1.3.2 自动微分
- 1.3.3 PyTorch的核心模块
- 1.4 实验室小试牛刀
- 1.4.1 塔珀自指公式
- 1.4.2 看看你毕业了能拿多少
- 1.5 加油站之高等数学知识回顾
- 1.5.1 函数基础知识
- 1.5.2 常见的导数公式
- 第2章 机器学习快速入门
- 2.1 机器学习的分类
- 2.1.1 监督学习
- 2.1.2 半监督学习
- 2.1.3 无监督学习
- 2.1.4 强化学习
- 2.2 机器学习的常见概念
- 2.2.1 缺失值处理
- 2.2.2 数据标准化与数据正则化
- 2.2.3 交叉验证
- 2.2.4 过拟合与欠拟合
- 2.3 神经网络
- 2.3.1 神经网络的生物学发现与编程模拟
- 2.3.2 人工神经网络的核心思想
- 2.4 实现线性回归、多项式回归和逻辑回归
- 2.4.1 PyTorch实现线性回归
- 2.4.2 PyTorch实现多项式回归
- 2.4.3 PyTorch实现逻辑回归
- 2.5 加油站之高等数学知识回顾
- 2.5.1 方向导数和梯度
- 2.5.2 微分及积分
- 2.5.3 牛顿-莱布尼兹公式
- 第3章 PyTorch与科学计算
- 3.1 算子字典
- 3.1.1 基本方法
- 3.1.2 索引、切片、连接和换位
- 3.1.3 随机抽样
- 3.1.4 数据持久化与高并发
- 3.1.5 元素级别的数学计算
- 3.1.6 规约计算
- 3.1.7 数值比较运算
- 3.1.8 矩阵运算
- 3.2 广播机制
- 3.2.1 自动广播规则
- 3.2.2 广播计算规则
- 3.3 GPU设备及并行编程
- 3.3.1 device和cuda.device的基本用法
- 3.3.2 CPU设备到GPU设备
- 3.3.3 固定缓冲区
- 3.3.4 自动设备感知
- 3.3.5 并发编程
- 3.4 实验室小试牛刀之轻松搞定图片分类
- 3.4.1 softmax分类简介
- 3.4.2 定义网络结构
- 3.5 加油站之高等数学知识回顾
- 3.5.1 泰勒公式及其思想
- 3.5.2 拉格朗日乘子法及其思想
- 第4章 激活函数、损失函数、优化器及数据加载
- 4.1 激活函数
- 4.1.1 Sigmoid
- 4.1.2 tanh
- 4.1.3 ReLU及其变形
- 4.1.4 MaxOut
- 4.2 损失函数
- 4.2.1 L1范数损失
- 4.2.2 均方误差损失
- 4.2.3 二分类交叉熵损失
- 4.2.4 CrossEntropyLoss和NLLLoss计算交叉熵损失
- 4.2.5 KL散度损失
- 4.2.6 余弦相似度损失
- 4.2.7 多分类多标签损失
- 4.3 优化器
- 4.3.1 BGD
- 4.3.2 SGD
- 4.3.3 MBGD
- 4.3.4 Momentum
- 4.3.5 NAG
- 4.3.6 Adagrad
- 4.3.7 Adadelta
- 4.3.8 Adam
- 4.4 数据加载
- 4.4.1 Dataset数据集
- 4.4.2 DataLoader数据加载
- 4.5 初探卷积神经网络
- 4.5.1 知识科普:卷积过程及物理意义
- 4.5.2 卷积神经网络
- 4.5.3 stride和padding
- 4.5.4 膨胀卷积神经网络
- 4.5.5 池化
- 4.6 实验室小试牛刀
- 4.6.1 设计卷积神经网络
- 4.6.2 定义卷积神经网络
- 4.6.3 模型训练
- 4.6.4 理解卷积神经网络在学什么
- 第5章 PyTorch深度神经网络
- 5.1 计算机视觉工具包
- 5.2 训练过程的可视化
- 5.2.1 TensorBoard
- 5.2.2 Visdom
- 5.3 深度神经网络
- 5.3.1 LeNet
- 5.3.2 AlexNet
- 5.3.3 ZF-Net
- 5.3.4 VGG-Nets
- 5.3.5 GoogLeNet
- 5.3.6 ResNet
- 5.3.7 DenseNet
- 5.4 循环神经网络
- 5.4.1 循环神经网络基础模型
- 5.4.2 LSTM
- 5.4.3 GRU
- 5.5 实验室小试牛刀
- 5.5.1 数据准备
- 5.5.2 GRU网络设计
- 5.5.3 模型训练
- 5.5.4 模型预测
- 5.6 加油站之概率论基础知识回顾
- 5.6.1 离散型随机变量和连续型随机变量
- 5.6.2 概率论常用概念
- 5.6.3 二维随机变量
- 5.6.4 边缘分布
- 5.6.5 期望和方差
- 5.6.6 大数定理
- 5.6.7 马尔可夫不等式及切比雪夫不等式
- 5.6.8 中心极限定理
- 第6章 自然语言处理
- 6.1 自然语言基础
- 6.1.1 自然语言发展史
- 6.1.2 自然语言处理中的常见任务
- 6.1.3 统计自然语言理论
- 6.1.4 使用隐马尔可夫模型实现中文分词
- 6.2 提取关键字
- 6.2.1 TF-IDF
- 6.2.2 TextRank
- 6.2.3 主题模型
- 6.3 Word2vec和词嵌入
- 6.3.1 N-Gram模型
- 6.3.2 词袋模型
- 6.3.3 Word2vec词向量的密集表示
- 6.3.4 使用Word2vec生成词向量
- 6.3.5 Word2vec源码调试
- 6.3.6 在PyTorch中使用词向量
- 6.4 变长序列处理
- 6.4.1 pack_padded_sequence压缩
- 6.4.2 pad_packed_sequence解压缩
- 6.5 Encoder-Decoder框架和注意力机制
- 6.5.1 Encoder-Decoder框架
- 6.5.2 注意力机制
- 6.6 实验室小试牛刀之对话机器人
- 6.6.1 中文对话语料
- 6.6.2 构建问答词典
- 6.6.3 DataLoader数据加载
- 6.6.4 Encoder双向多层GRU
- 6.6.5 运用注意力机制
- 6.6.6 Decoder多层GRU
- 6.6.7 模型训练
- 6.6.8 答案搜索及效果展示
- 6.7 加油站之常见的几种概率分布
- 6.7.1 二项分布
- 6.7.2 正态分布
- 6.7.3 均匀分布
- 6.7.4 泊松分布
- 6.7.5 卡方分布
- 6.7.6 Beta分布
- 第7章 自然语言的曙光:预训练模型
- 7.1 预训练模型的应用
- 7.2 从词嵌入到ELMo
- 7.2.1 词嵌入头上的乌云
- 7.2.2 ELMo
- 7.3 从ELMo模型到GPT模型
- 7.3.1 GPT模型
- 7.3.2 使用GPT模型
- 7.4 从GPT模型到BERT模型
- 第8章 自然语言处理利器:AllenNLP
- 8.1 中文词性标注
- 8.1.1 DatasetReader数据读取
- 8.1.2 定义Model模型
- 8.1.3 模型训练
- 8.1.4 模型预测
- 8.1.5 模型保存和加载
- 8.2 AllenNLP使用Config Files
- 8.2.1 参数解析
- 8.2.2 注册数据读取器和模型
- 8.2.3 定义Jsonnet配置文件
- 8.2.4 命令行工具
- 8.2.5 特征融合
- 8.2.6 制作在线Demo
- 第9章 FastAI高层深度学习框架
- 9.1 FastAI框架中的原语
- 9.2 在FastAI框架中使用BERT模型完成中文分类
- 9.2.1 分词器
- 9.2.2 定义字典
- 9.2.3 数据准备
- 9.2.4 构建Databunch和Learner
- 9.2.5 模型训练
- 9.2.6 模型保存和加载
- 9.2.7 模型预测
- 9.2.8 制作Rest接口提供服务
- 第10章 PyTorch Big Graph嵌入
- 10.1 PyTorch Big Graph简介
- 10.1.1 PBG模型
- 10.1.2 模型的表示
- 10.1.3 正样本、负样本及损失函数
- 10.1.4 分布式训练
- 10.1.5 批量负采样
- 10.2 PBG实践应用
- 10.2.1 模型配置文件
- 10.2.2 划分训练集和测试集
- 10.2.3 模型训练和验证
- 10.2.4 图嵌入向量及应用
- 后折页
- 封底
展开全部
出版方
电子工业出版社
电子工业出版社成立于1982年10月,是国务院独资、工信部直属的中央级科技与教育出版社,是专业的信息技术知识集成和服务提供商。经过三十多年的建设与发展,已成为一家以科技和教育出版、期刊、网络、行业支撑服务、数字出版、软件研发、软科学研究、职业培训和教育为核心业务的现代知识服务集团。出版物内容涵盖了电子信息技术的各个分支及工业技术、经济管理、科普与少儿、社科人文等领域,综合出版能力位居全国出版行业前列。