科技
类型
8.0
豆瓣评分
可以朗读
语音朗读
328千字
字数
2022-04-01
发行日期
展开全部
主编推荐语
一本系统介绍深度学习技术及开源框架PyTorch的入门书。
内容简介
书中通过大量案例介绍了PyTorch的使用方法、神经网络的搭建、常用神经网络(如卷积神经网络、循环神经网络)的实现,以及实用的深度学习技术,包括迁移学习、对抗生成学习、深度强化学习、图神经网络等。
本书基于PyTorch1.6.0,对全书代码进行了全面更新,同时增加了Transformer、BERT、图神经网络等热门深度学习技术的讲解,更具实用性和时效性。
目录
- 版权信息
- 推荐序
- 前言
- 作者简介
- 第1章 深度学习简介
- 1.1 深度学习与人工智能
- 1.2 深度学习的历史渊源
- 1.2.1 从感知机到人工神经网络
- 1.2.2 深度学习时代
- 1.2.3 巨头之间的角逐
- 1.3 深度学习的影响因素
- 1.3.1 大数据
- 1.3.2 深度网络架构
- 1.3.3 GPU
- 1.4 深度学习为什么如此成功
- 1.4.1 特征学习
- 1.4.2 迁移学习
- 1.5 小结
- 第2章 PyTorch简介
- 2.1 PyTorch安装
- 2.2 初识PyTorch
- 2.2.1 与Python完美融合
- 2.2.2 张量计算
- 2.2.3 动态计算图
- 2.3 PyTorch实例:预测房价
- 2.3.1 准备数据
- 2.3.2 设计模型
- 2.3.3 训练
- 2.3.4 预测
- 2.3.5 术语汇总
- 2.4 小结
- 第3章 单车预测器
- 3.1 共享单车的烦恼
- 3.2 单车预测器1.0
- 3.2.1 人工神经网络简介
- 3.2.2 人工神经元
- 3.2.3 两个隐含神经元
- 3.2.4 训练与运行
- 3.2.5 失败的神经预测器
- 3.2.6 过拟合
- 3.3 单车预测器2.0
- 3.3.1 数据的预处理过程
- 3.3.2 构建神经网络
- 3.3.3 测试神经网络
- 3.4 剖析神经网络Neu
- 3.5 小结
- 3.6 Q&A
- 第4章 机器也懂感情
- 4.1 神经网络分类器
- 4.1.1 如何用神经网络做分类
- 4.1.2 分类问题的损失函数
- 4.2 词袋模型分类器
- 4.2.1 词袋模型简介
- 4.2.2 搭建简单文本分类器
- 4.3 程序实现
- 4.3.1 数据处理
- 4.3.2 文本数据向量化
- 4.3.3 划分数据集
- 4.3.4 建立神经网络
- 4.4 运行结果
- 4.5 剖析神经网络
- 4.6 小结
- 4.7 Q&A
- 第5章 手写数字识别器
- 5.1 什么是卷积神经网络
- 5.1.1 手写数字识别任务的卷积神经网络及运算过程
- 5.1.2 卷积运算
- 5.1.3 池化运算
- 5.1.4 立体卷积核
- 5.1.5 超参数与参数
- 5.1.6 其他说明
- 5.2 手写数字识别器
- 5.2.1 数据准备
- 5.2.2 构建网络
- 5.2.3 运行模型
- 5.2.4 测试模型
- 5.3 剖析卷积神经网络
- 5.3.1 第一层卷积核与特征图
- 5.3.2 第二层卷积核与特征图
- 5.3.3 卷积神经网络的健壮性实验
- 5.4 小结
- 5.5 Q&A
- 5.6 扩展阅读
- 第6章 手写数字加法机
- 6.1 什么是迁移学习
- 6.1.1 迁移学习的由来
- 6.1.2 迁移学习的分类
- 6.1.3 迁移学习的意义
- 6.1.4 如何用神经网络实现迁移学习
- 6.2 应用案例:迁移学习如何抗击贫困
- 6.2.1 背景介绍
- 6.2.2 方法探寻
- 6.2.3 迁移学习方法
- 6.3 蚂蚁还是蜜蜂:迁移大型卷积神经网络
- 6.3.1 任务描述与初步尝试
- 6.3.2 ResNet与模型迁移
- 6.3.3 代码实现
- 6.3.4 结果分析
- 6.3.5 更多的模型与数据
- 6.4 手写数字加法机
- 6.4.1 网络架构
- 6.4.2 代码实现
- 6.4.3 训练与测试
- 6.4.4 结果
- 6.4.5 大规模实验
- 6.5 小结
- 6.6 实践项目:迁移与效率
- 第7章 你自己的Prisma
- 7.1 什么是风格迁移
- 7.1.1 什么是风格
- 7.1.2 风格迁移的含义
- 7.2 风格迁移技术发展简史
- 7.3 神经网络风格迁移
- 7.3.1 神经网络风格迁移的优势
- 7.3.2 神经网络风格迁移的基本思想
- 7.3.3 卷积神经网络的选取
- 7.3.4 内容损失
- 7.3.5 风格损失
- 7.3.6 风格损失原理分析
- 7.3.7 损失函数与优化
- 7.4 神经网络风格迁移实战
- 7.4.1 准备工作
- 7.4.2 建立风格迁移网络
- 7.4.3 风格迁移训练
- 7.5 小结
- 7.6 扩展阅读
- 第8章 人工智能造假术
- 8.1 反卷积与图像生成
- 8.1.1 卷积神经网络回顾
- 8.1.2 反卷积运算
- 8.1.3 反池化过程
- 8.1.4 反卷积与分数步伐
- 8.1.5 输出图像尺寸公式
- 8.1.6 批正则化技术
- 8.2 图像生成实验1——最小均方误差模型
- 8.2.1 模型思路
- 8.2.2 代码实现
- 8.2.3 运行结果
- 8.3 图像生成实验2——生成器—识别器模型
- 8.3.1 生成器—识别器模型的实现
- 8.3.2 对抗样本
- 8.4 图像生成实验3——GAN
- 8.4.1 GAN的总体架构
- 8.4.2 程序实现
- 8.4.3 结果展示
- 8.5 小结
- 8.6 Q&A
- 8.7 扩展阅读
- 第9章 词汇的星空
- 9.1 词向量技术介绍
- 9.1.1 初识词向量
- 9.1.2 传统编码方式
- 9.2 NPLM:神经概率语言模型
- 9.2.1 NPLM的基本思想
- 9.2.2 NPLM的运作过程详解
- 9.2.3 读取NPLM中的词向量
- 9.2.4 NPLM的编码实现
- 9.2.5 运行结果
- 9.2.6 NPLM的总结与局限
- 9.3 Word2Vec
- 9.3.1 CBOW模型和Skip-gram模型的结构
- 9.3.2 层次归一化指数函数
- 9.3.3 负采样
- 9.3.4 总结及分析
- 9.4 Word2Vec的应用
- 9.4.1 在自己的语料库上训练Word2Vec词向量
- 9.4.2 调用现成的词向量
- 9.4.3 女人-男人=皇后-国王
- 9.4.4 使用向量的空间位置进行词对词翻译
- 9.4.5 Word2Vec小结
- 9.5 小结
- 9.6 Q&A
- 第10章 深度网络LSTM作曲机
- 10.1 序列生成问题
- 10.2 RNN与LSTM
- 10.2.1 RNN
- 10.2.2 LSTM
- 10.3 简单01序列的学习问题
- 10.3.1 RNN的序列学习
- 10.3.2 LSTM的序列学习
- 10.4 LSTM作曲机
- 10.4.1 MIDI文件
- 10.4.2 数据准备
- 10.4.3 模型结构
- 10.4.4 代码实现
- 10.5 小结
- 10.6 Q&A
- 10.7 扩展阅读
- 第11章 神经机器翻译机
- 11.1 机器翻译简介
- 11.1.1 基于规则的机器翻译技术
- 11.1.2 统计机器翻译
- 11.1.3 神经机器翻译
- 11.1.4 关于Zero-shot翻译
- 11.2 编码—解码模型
- 11.2.1 编码—解码模型总体架构
- 11.2.2 编码器
- 11.2.3 解码器
- 11.2.4 损失函数
- 11.2.5 编码—解码模型归纳
- 11.2.6 编码—解码模型的效果
- 11.3 注意力机制
- 11.3.1 神经机器翻译中的注意力
- 11.3.2 注意力网络
- 11.4 更多改进
- 11.4.1 GRU的结构
- 11.4.2 双向GRU的应用
- 11.5 神经机器翻译机的编码实现
- 11.5.1 神经网络的构建
- 11.5.2 神经网络的训练
- 11.5.3 测试神经机器翻译机
- 11.5.4 结果展示
- 11.6 更多改进
- 11.6.1 集束搜索算法
- 11.6.2 BLEU:对翻译结果的评估方法
- 11.6.3 对编码—解码模型的改进
- 11.7 广义的翻译
- 11.7.1 广义翻译机
- 11.7.2 广义翻译的应用场景
- 11.8 Q&A
- 第12章 更强的机器翻译模型
- 12.1 Transformer概述
- 12.1.1 编码—解码模型回顾
- 12.1.2 Transformer全景概览
- 12.1.3 神奇的自注意力
- 12.2 Atoken旅行记
- 12.2.1 奇怪的序号牌
- 12.2.2 分身之门
- 12.2.3 新朋友
- 12.3 Transformer部件详解
- 12.3.1 词嵌入与位置嵌入
- 12.3.2 自注意力模块计算详解
- 12.3.3 自注意力层的矩阵计算
- 12.3.4 残差连接与层归一化
- 12.3.5 逐点计算的前向网络层
- 12.3.6 解码器中的自注意力
- 12.3.7 解码器的输出层
- 12.4 动手训练一个Transformer翻译模型
- 12.4.1 翻译模型中输入单位的粒度
- 12.4.2 模型定义
- 12.4.3 模型训练
- 12.4.4 Transformer相关开源库
- 12.5 小结
- 第13章 学习跨任务的语言知识
- 13.1 语言模型简要回顾
- 13.2 预训练Transformer详解
- 13.2.1 深入了解GPT
- 13.2.2 深入了解BERT
- 13.2.3 模型微调
- 13.2.4 模型表现
- 13.3 单句分类:BERT句子分类实战
- 13.4 后BERT时代
- 13.5 小结
- 第14章 人体姿态识别
- 14.1 图网络及图论基础
- 14.1.1 图的基本概念
- 14.1.2 什么是图网络
- 14.1.3 图网络的基本任务和应用场景
- 14.2 图卷积网络
- 14.2.1 GCN的工作原理
- 14.2.2 打开GCN的黑箱
- 14.2.3 从社团划分任务来理解GCN
- 14.3 实战:使用GCN识别人体姿态
- 14.3.1 数据来源与预处理
- 14.3.2 代码实现
- 14.4 小结
- 第15章 AI游戏高手
- 15.1 强化学习简介
- 15.1.1 强化学习的要素
- 15.1.2 强化学习的应用场景
- 15.1.3 强化学习的分类
- 15.2 深度Q学习算法
- 15.2.1 Q学习算法
- 15.2.2 DQN算法
- 15.2.3 DQN在雅达利游戏上的表现
- 15.3 DQN玩Flappy Bird的PyTorch实现
- 15.3.1 Flappy Bird的PyGame实现
- 15.3.2 DQN的PyTorch实现
- 15.4 小结
- 15.5 通用人工智能还有多远
- 15.6 Q&A
- 15.7 扩展阅读
展开全部
出版方
人民邮电出版社
人民邮电出版社是工业和信息化部主管的大型专业出版社,成立于1953年10月1日。人民邮电出版社坚持“立足信息产业、面向现代社会、传播科学知识、服务科教兴国”,致力于通信、计算机、电子技术、教材、少儿、经管、摄影、集邮、旅游、心理学等领域的专业图书出版。