展开全部

主编推荐语

深度学习入门到精通:详解Pytorch技术,10章实践案例。

内容简介

本书以深度学习为核心,详细讲解Pytorch技术堆栈,力求使用最直白的语言,带更多的小白学员入门甚至精通深度学习。本书共分为10个章节,前五个章节主要讲解深度学习中的基本算法及概念,通过使用Pytorch实现经典的神经网络并辅以”课后加油站”小节补充数学知识,力求让每一个知识点、每一个章节、每一个实验都能在学员脑海中留下印象,做到看了能做、做了能会、会了能用。后面五个章节作为Pytorch的进阶,会讲使用Pytorch构建深度神经网络、使用HMM实现中文分词、训练聊天机器人等有意思的小实验。引入当下最流行的自然语言预训练模型如Elmo、BERT等,教会读者使用自然语言利器AllenNLP及高阶框架FastAI。最后一章讲解当下最流行的图嵌入技术,对知识图谱感兴趣的童鞋可以深入的研究。

目录

  • 封面
  • 前折页
  • 版权信息
  • 内容简介
  • 前言
  • 第1章 初识PyTorch
  • 1.1 神经网络发展简史
  • 1.1.1 神经网络的前世今生
  • 1.1.2 深度学习框架对比
  • 1.2 环境安装
  • 1.2.1 Python环境的选择及安装
  • 1.2.2 PyTorch 1.2的安装
  • 1.2.3 开发环境IDE
  • 1.3 PyTorch的核心概念
  • 1.3.1 PyTorch的基本概念
  • 1.3.2 自动微分
  • 1.3.3 PyTorch的核心模块
  • 1.4 实验室小试牛刀
  • 1.4.1 塔珀自指公式
  • 1.4.2 看看你毕业了能拿多少
  • 1.5 加油站之高等数学知识回顾
  • 1.5.1 函数基础知识
  • 1.5.2 常见的导数公式
  • 第2章 机器学习快速入门
  • 2.1 机器学习的分类
  • 2.1.1 监督学习
  • 2.1.2 半监督学习
  • 2.1.3 无监督学习
  • 2.1.4 强化学习
  • 2.2 机器学习的常见概念
  • 2.2.1 缺失值处理
  • 2.2.2 数据标准化与数据正则化
  • 2.2.3 交叉验证
  • 2.2.4 过拟合与欠拟合
  • 2.3 神经网络
  • 2.3.1 神经网络的生物学发现与编程模拟
  • 2.3.2 人工神经网络的核心思想
  • 2.4 实现线性回归、多项式回归和逻辑回归
  • 2.4.1 PyTorch实现线性回归
  • 2.4.2 PyTorch实现多项式回归
  • 2.4.3 PyTorch实现逻辑回归
  • 2.5 加油站之高等数学知识回顾
  • 2.5.1 方向导数和梯度
  • 2.5.2 微分及积分
  • 2.5.3 牛顿-莱布尼兹公式
  • 第3章 PyTorch与科学计算
  • 3.1 算子字典
  • 3.1.1 基本方法
  • 3.1.2 索引、切片、连接和换位
  • 3.1.3 随机抽样
  • 3.1.4 数据持久化与高并发
  • 3.1.5 元素级别的数学计算
  • 3.1.6 规约计算
  • 3.1.7 数值比较运算
  • 3.1.8 矩阵运算
  • 3.2 广播机制
  • 3.2.1 自动广播规则
  • 3.2.2 广播计算规则
  • 3.3 GPU设备及并行编程
  • 3.3.1 device和cuda.device的基本用法
  • 3.3.2 CPU设备到GPU设备
  • 3.3.3 固定缓冲区
  • 3.3.4 自动设备感知
  • 3.3.5 并发编程
  • 3.4 实验室小试牛刀之轻松搞定图片分类
  • 3.4.1 softmax分类简介
  • 3.4.2 定义网络结构
  • 3.5 加油站之高等数学知识回顾
  • 3.5.1 泰勒公式及其思想
  • 3.5.2 拉格朗日乘子法及其思想
  • 第4章 激活函数、损失函数、优化器及数据加载
  • 4.1 激活函数
  • 4.1.1 Sigmoid
  • 4.1.2 tanh
  • 4.1.3 ReLU及其变形
  • 4.1.4 MaxOut
  • 4.2 损失函数
  • 4.2.1 L1范数损失
  • 4.2.2 均方误差损失
  • 4.2.3 二分类交叉熵损失
  • 4.2.4 CrossEntropyLoss和NLLLoss计算交叉熵损失
  • 4.2.5 KL散度损失
  • 4.2.6 余弦相似度损失
  • 4.2.7 多分类多标签损失
  • 4.3 优化器
  • 4.3.1 BGD
  • 4.3.2 SGD
  • 4.3.3 MBGD
  • 4.3.4 Momentum
  • 4.3.5 NAG
  • 4.3.6 Adagrad
  • 4.3.7 Adadelta
  • 4.3.8 Adam
  • 4.4 数据加载
  • 4.4.1 Dataset数据集
  • 4.4.2 DataLoader数据加载
  • 4.5 初探卷积神经网络
  • 4.5.1 知识科普:卷积过程及物理意义
  • 4.5.2 卷积神经网络
  • 4.5.3 stride和padding
  • 4.5.4 膨胀卷积神经网络
  • 4.5.5 池化
  • 4.6 实验室小试牛刀
  • 4.6.1 设计卷积神经网络
  • 4.6.2 定义卷积神经网络
  • 4.6.3 模型训练
  • 4.6.4 理解卷积神经网络在学什么
  • 第5章 PyTorch深度神经网络
  • 5.1 计算机视觉工具包
  • 5.2 训练过程的可视化
  • 5.2.1 TensorBoard
  • 5.2.2 Visdom
  • 5.3 深度神经网络
  • 5.3.1 LeNet
  • 5.3.2 AlexNet
  • 5.3.3 ZF-Net
  • 5.3.4 VGG-Nets
  • 5.3.5 GoogLeNet
  • 5.3.6 ResNet
  • 5.3.7 DenseNet
  • 5.4 循环神经网络
  • 5.4.1 循环神经网络基础模型
  • 5.4.2 LSTM
  • 5.4.3 GRU
  • 5.5 实验室小试牛刀
  • 5.5.1 数据准备
  • 5.5.2 GRU网络设计
  • 5.5.3 模型训练
  • 5.5.4 模型预测
  • 5.6 加油站之概率论基础知识回顾
  • 5.6.1 离散型随机变量和连续型随机变量
  • 5.6.2 概率论常用概念
  • 5.6.3 二维随机变量
  • 5.6.4 边缘分布
  • 5.6.5 期望和方差
  • 5.6.6 大数定理
  • 5.6.7 马尔可夫不等式及切比雪夫不等式
  • 5.6.8 中心极限定理
  • 第6章 自然语言处理
  • 6.1 自然语言基础
  • 6.1.1 自然语言发展史
  • 6.1.2 自然语言处理中的常见任务
  • 6.1.3 统计自然语言理论
  • 6.1.4 使用隐马尔可夫模型实现中文分词
  • 6.2 提取关键字
  • 6.2.1 TF-IDF
  • 6.2.2 TextRank
  • 6.2.3 主题模型
  • 6.3 Word2vec和词嵌入
  • 6.3.1 N-Gram模型
  • 6.3.2 词袋模型
  • 6.3.3 Word2vec词向量的密集表示
  • 6.3.4 使用Word2vec生成词向量
  • 6.3.5 Word2vec源码调试
  • 6.3.6 在PyTorch中使用词向量
  • 6.4 变长序列处理
  • 6.4.1 pack_padded_sequence压缩
  • 6.4.2 pad_packed_sequence解压缩
  • 6.5 Encoder-Decoder框架和注意力机制
  • 6.5.1 Encoder-Decoder框架
  • 6.5.2 注意力机制
  • 6.6 实验室小试牛刀之对话机器人
  • 6.6.1 中文对话语料
  • 6.6.2 构建问答词典
  • 6.6.3 DataLoader数据加载
  • 6.6.4 Encoder双向多层GRU
  • 6.6.5 运用注意力机制
  • 6.6.6 Decoder多层GRU
  • 6.6.7 模型训练
  • 6.6.8 答案搜索及效果展示
  • 6.7 加油站之常见的几种概率分布
  • 6.7.1 二项分布
  • 6.7.2 正态分布
  • 6.7.3 均匀分布
  • 6.7.4 泊松分布
  • 6.7.5 卡方分布
  • 6.7.6 Beta分布
  • 第7章 自然语言的曙光:预训练模型
  • 7.1 预训练模型的应用
  • 7.2 从词嵌入到ELMo
  • 7.2.1 词嵌入头上的乌云
  • 7.2.2 ELMo
  • 7.3 从ELMo模型到GPT模型
  • 7.3.1 GPT模型
  • 7.3.2 使用GPT模型
  • 7.4 从GPT模型到BERT模型
  • 第8章 自然语言处理利器:AllenNLP
  • 8.1 中文词性标注
  • 8.1.1 DatasetReader数据读取
  • 8.1.2 定义Model模型
  • 8.1.3 模型训练
  • 8.1.4 模型预测
  • 8.1.5 模型保存和加载
  • 8.2 AllenNLP使用Config Files
  • 8.2.1 参数解析
  • 8.2.2 注册数据读取器和模型
  • 8.2.3 定义Jsonnet配置文件
  • 8.2.4 命令行工具
  • 8.2.5 特征融合
  • 8.2.6 制作在线Demo
  • 第9章 FastAI高层深度学习框架
  • 9.1 FastAI框架中的原语
  • 9.2 在FastAI框架中使用BERT模型完成中文分类
  • 9.2.1 分词器
  • 9.2.2 定义字典
  • 9.2.3 数据准备
  • 9.2.4 构建Databunch和Learner
  • 9.2.5 模型训练
  • 9.2.6 模型保存和加载
  • 9.2.7 模型预测
  • 9.2.8 制作Rest接口提供服务
  • 第10章 PyTorch Big Graph嵌入
  • 10.1 PyTorch Big Graph简介
  • 10.1.1 PBG模型
  • 10.1.2 模型的表示
  • 10.1.3 正样本、负样本及损失函数
  • 10.1.4 分布式训练
  • 10.1.5 批量负采样
  • 10.2 PBG实践应用
  • 10.2.1 模型配置文件
  • 10.2.2 划分训练集和测试集
  • 10.2.3 模型训练和验证
  • 10.2.4 图嵌入向量及应用
  • 后折页
  • 封底
展开全部

评分及书评

评分不足
2个评分

出版方

电子工业出版社

电子工业出版社成立于1982年10月,是国务院独资、工信部直属的中央级科技与教育出版社,是专业的信息技术知识集成和服务提供商。经过三十多年的建设与发展,已成为一家以科技和教育出版、期刊、网络、行业支撑服务、数字出版、软件研发、软科学研究、职业培训和教育为核心业务的现代知识服务集团。出版物内容涵盖了电子信息技术的各个分支及工业技术、经济管理、科普与少儿、社科人文等领域,综合出版能力位居全国出版行业前列。