计算机
类型
可以朗读
语音朗读
144千字
字数
2022-08-01
发行日期
展开全部
主编推荐语
20余年研发经验资深专家,带领你快速进入深度学习的世界。
内容简介
本书是一本能指导读者快速掌握TensorFlow和深度学习的著作,从TensorFlow的原理到应用,从深度学习到强化学习,本书提供了全栈解决方案。
目录
- 版权信息
- 第2版前言
- 第1版前言
- 第一部分 TensorFlow基础
- 第1章 NumPy基础
- 1.1 把图像数字化
- 1.1.1 数组属性
- 1.1.2 从已有数据中生成数组
- 1.1.3 利用random模块生成数组
- 1.1.4 利用arange、linspace函数生成数组
- 1.2 存取元素
- 1.3 NumPy的算术运算
- 1.3.1 对应元素相乘
- 1.3.2 点积运算
- 1.4 数据变形
- 1.4.1 更改数组的形状
- 1.4.2 合并数组
- 1.5 通用函数
- 1.6 广播机制
- 1.7 用NumPy实现回归实例
- 1.8 小结
- 第2章 TensorFlow基础知识
- 2.1 安装配置
- 2.1.1 安装Anaconda
- 2.1.2 安装TensorFlow CPU版
- 2.1.3 安装TensorFlow GPU版
- 2.2 层次架构
- 2.3 张量
- 2.3.1 张量的基本属性
- 2.3.2 张量切片
- 2.3.3 操作形状
- 2.4 变量
- 2.5 NumPy与tf.Tensor比较
- 2.6 计算图
- 2.6.1 静态计算图
- 2.6.2 动态计算图
- 2.7 自动图
- 2.8 自动微分
- 2.9 损失函数
- 2.10 优化器
- 2.11 使用TensorFlow 2.0实现回归实例
- 2.12 GPU加速
- 2.13 小结
- 第3章 TensorFlow构建模型的方法
- 3.1 利用低阶API构建模型
- 3.1.1 项目背景
- 3.1.2 导入数据
- 3.1.3 预处理数据
- 3.1.4 构建模型
- 3.1.5 训练模型
- 3.1.6 测试模型
- 3.1.7 保存恢复模型
- 3.2 利用中阶API构建模型
- 3.2.1 构建模型
- 3.2.2 创建损失评估函数
- 3.2.3 训练模型
- 3.3 利用高阶API构建模型
- 3.3.1 构建模型
- 3.3.2 编译及训练模型
- 3.3.3 测试模型
- 3.3.4 保存恢复模型
- 3.4 小结
- 第4章 TensorFlow数据处理
- 4.1 tf.data简介
- 4.2 构建数据集的常用方法
- 4.2.1 从内存中读取数据
- 4.2.2 从文本中读取数据
- 4.2.3 读取TFRecord格式文件
- 4.3 如何生成自己的TFRecord格式数据
- 4.3.1 把数据转换为TFRecord格式的一般步骤
- 4.3.2 加载TFRecord文件流程
- 4.3.3 代码实现
- 4.4 数据增强方法
- 4.4.1 常用的数据增强方法
- 4.4.2 创建数据处理流水线
- 4.5 小结
- 第5章 可视化
- 5.1 matplotlib
- 5.1.1 matplotlib的基本概念
- 5.1.2 使用matplotlib绘制图表
- 5.1.3 使用rcParams
- 5.2 pyecharts
- 5.2.1 pyecharts的安装
- 5.2.2 使用pyecharts绘制图表
- 5.3 TensorBoard
- 5.4 小结
- 第二部分 深度学习基础
- 第6章 机器学习基础
- 6.1 机器学习的一般流程
- 6.1.1 明确目标
- 6.1.2 收集数据
- 6.1.3 数据探索与预处理
- 6.1.4 模型选择
- 6.1.5 模型评估
- 6.2 监督学习
- 6.2.1 线性回归
- 6.2.2 逻辑回归
- 6.2.3 树回归
- 6.2.4 支持向量机
- 6.2.5 朴素贝叶斯分类器
- 6.2.6 集成学习
- 6.3 无监督学习
- 6.3.1 主成分分析
- 6.3.2 k均值算法
- 6.4 数据预处理
- 6.4.1 处理缺失值
- 6.4.2 处理分类数据
- 6.5 机器学习实例
- 6.6 小结
- 第7章 神经网络基础
- 7.1 单层神经网络
- 7.2 多层神经网络
- 7.2.1 多层神经网络的结构
- 7.2.2 各层之间的信息传输
- 7.2.3 使用多层神经网络解决XOR问题
- 7.2.4 使用TensorFlow解决XOR问题
- 7.3 激活函数
- 7.3.1 sigmoid函数
- 7.3.2 softmax函数
- 7.3.3 tanh函数
- 7.3.4 ReLU函数
- 7.3.5 Leaky-ReLU函数
- 7.3.6 softplus函数
- 7.3.7 Dropout函数
- 7.4 正向和反向传播算法
- 7.4.1 单个神经元的BP算法
- 7.4.2 多层神经网络的BP算法
- 7.5 解决过拟合问题
- 7.5.1 权重正则化
- 7.5.2 Dropout正则化
- 7.5.3 批量正则化
- 7.5.4 权重初始化
- 7.5.5 残差网络
- 7.6 选择优化算法
- 7.6.1 传统梯度更新算法
- 7.6.2 动量算法
- 7.6.3 NAG算法
- 7.6.4 AdaGrad算法
- 7.6.5 RMSProp算法
- 7.6.6 Adam算法
- 7.6.7 如何选择优化算法
- 7.7 使用tf.keras构建神经网络
- 7.7.1 tf.keras概述
- 7.7.2 tf.keras的常用模块
- 7.7.3 构建模型的几种方法
- 7.7.4 使用Sequential API构建神经网络实例
- 7.7.5 使用Functional API构建神经网络实例
- 7.7.6 使用Subclassing API构建神经网络实例
- 7.8 小结
- 第8章 视觉处理基础
- 8.1 从全连接层到卷积层
- 8.1.1 图像的两个特性
- 8.1.2 卷积神经网络概述
- 8.2 卷积层
- 8.2.1 卷积核
- 8.2.2 步幅
- 8.2.3 填充
- 8.2.4 多通道上的卷积
- 8.2.5 激活函数
- 8.2.6 卷积函数
- 8.2.7 转置卷积
- 8.2.8 特征图与感受野
- 8.2.9 全卷积网络
- 8.3 池化层
- 8.3.1 局部池化
- 8.3.2 全局池化
- 8.4 现代经典网络
- 8.4.1 LeNet-5模型
- 8.4.2 AlexNet模型
- 8.4.3 VGG模型
- 8.4.4 GoogLeNet模型
- 8.4.5 ResNet模型
- 8.4.6 DenseNet模型
- 8.5 卷积神经网络分类实例
- 8.5.1 使用Subclassing API构建网络
- 8.5.2 卷积神经网络分类实例的主要步骤
- 8.5.3 通过数据增强提升性能
- 8.5.4 通过现代网络架构提升网络性能
- 8.6 小结
- 第9章 自然语言处理基础
- 9.1 从语言模型到循环神经网络
- 9.1.1 链式法则
- 9.1.2 马尔可夫假设与N元语法模型
- 9.1.3 从N元语法模型到隐含状态表示
- 9.1.4 从神经网络到有隐含状态的循环神经网络
- 9.1.5 使用循环神经网络构建语言模型
- 9.1.6 多层循环神经网络
- 9.2 正向传播与随时间反向传播
- 9.3 现代循环神经网络
- 9.3.1 LSTM
- 9.3.2 GRU
- 9.3.3 Bi-RNN
- 9.4 几种特殊架构
- 9.4.1 编码器-解码器架构
- 9.4.2 Seq2Seq架构
- 9.5 循环神经网络的应用场景
- 9.6 循环神经网络实践
- 9.6.1 使用LSTM实现文本分类
- 9.6.2 把CNN和RNN组合在一起
- 9.7 小结
- 第10章 注意力机制
- 10.1 注意力机制概述
- 10.1.1 两种常见注意力机制
- 10.1.2 来自生活的注意力
- 10.1.3 注意力机制的本质
- 10.2 带注意力机制的编码器-解码器架构
- 10.2.1 引入注意力机制
- 10.2.2 计算注意力分配值
- 10.3 可视化Transformer架构
- 10.3.1 Transformer的顶层设计
- 10.3.2 编码器与解码器的输入
- 10.3.3 自注意力
- 10.3.4 多头注意力
- 10.3.5 自注意力与卷积神经网络、循环神经网络的异同
- 10.3.6 为加深Transformer网络层保驾护航的几种方法
- 10.3.7 如何进行自监督学习
- 10.3.8 Transformer在视觉领域的应用
- 10.4 使用TensorFlow实现Transformer
- 10.4.1 Transformer架构图
- 10.4.2 架构说明
- 10.4.3 构建缩放的点积注意力模块
- 10.4.4 构建多头注意力模块
- 10.4.5 构建前馈神经网络模块
- 10.4.6 构建EncoderLayer模块
- 10.4.7 构建Encoder模块
- 10.4.8 构建DecoderLayer模块
- 10.4.9 构建Decoder模块
- 10.4.10 构建Transformer模型
- 10.4.11 定义掩码函数
- 10.5 小结
- 第11章 目标检测
- 11.1 目标检测及主要挑战
- 11.1.1 边界框的表示
- 11.1.2 手工标注图像的真实值
- 11.1.3 主要挑战
- 11.1.4 选择性搜索
- 11.1.5 锚框
- 11.1.6 RPN算法
- 11.2 优化候选框的算法
- 11.2.1 交并比
- 11.2.2 非极大值抑制
- 11.2.3 边框回归
- 11.2.4 使候选框输出为固定大小
- 11.3 典型的目标检测算法
- 11.3.1 R-CNN
- 11.3.2 Fast R-CNN
- 11.3.3 Faster R-CNN
- 11.3.4 Mask R-CNN
- 11.3.5 YOLO
- 11.3.6 Swin Transformer
- 11.3.7 各种算法的性能比较
- 11.4 小结
- 第12章 生成式深度学习
- 12.1 用变分自编码器生成图像
- 12.1.1 自编码器
- 12.1.2 变分自编码器
- 12.1.3 用变分自编码器生成图像实例
- 12.2 GAN简介
- 12.2.1 GAN的架构
- 12.2.2 GAN的损失函数
- 12.3 用GAN生成图像
- 12.3.1 判别器
- 12.3.2 生成器
- 12.3.3 训练模型
- 12.3.4 可视化结果
- 12.4 VAE与GAN的异同
- 12.5 CGAN
- 12.5.1 CGAN的架构
- 12.5.2 CGAN判别器
- 12.5.3 CGAN生成器
- 12.5.4 训练模型
- 12.5.5 动态查看指定标签的图像
- 12.6 提升GAN训练效果的一些技巧
- 12.7 小结
- 第三部分 深度学习实践
- 第13章 实战生成式模型
- 13.1 Deep Dream模型
- 13.1.1 Deep Dream的原理
- 13.1.2 Deep Dream算法的流程
- 13.1.3 使用TensorFlow实现Deep Dream
- 13.2 风格迁移
- 13.2.1 内容损失
- 13.2.2 风格损失
- 13.2.3 训练模型
- 13.3 小结
- 第14章 目标检测实例
- 14.1 数据集简介
- 14.2 准备数据
- 14.3 训练模型
- 14.4 测试模型
- 14.5 小结
- 第15章 人脸检测与识别实例
- 15.1 人脸识别简介
- 15.2 项目概况
- 15.3 项目详细实施步骤
- 15.3.1 图像预处理
- 15.3.2 构建模型
- 15.3.3 测试模型
- 15.4 小结
- 第16章 文本检测与识别实例
- 16.1 项目架构说明
- 16.2 项目实施步骤
- 16.2.1 手工生成训练数据
- 16.2.2 数据预处理
- 16.2.3 构建模型
- 16.2.4 训练模型
- 16.3 小结
- 第17章 基于Transformer的对话实例
- 17.1 数据预处理
- 17.2 构建注意力模块
- 17.3 构建Transformer架构
- 17.4 定义损失函数
- 17.5 初始化并编译模型
- 17.6 测试评估模型
- 17.7 小结
- 第18章 基于Transformer的图像处理实例
- 18.1 导入数据
- 18.2 预处理数据
- 18.3 构建模型
- 18.4 编译、训练模型
- 18.5 可视化运行结果
- 18.6 小结
- 第四部分 强化学习
- 第19章 强化学习基础
- 19.1 强化学习基础概述
- 19.1.1 智能体与环境的交互
- 19.1.2 回报
- 19.1.3 马尔可夫决策过程
- 19.1.4 贝尔曼方程
- 19.1.5 贝尔曼最优方程
- 19.1.6 同步策略与异步策略
- 19.1.7 有模型训练与无模型训练
- 19.2 时序差分算法
- 19.3 Q-Learning算法
- 19.3.1 Q-Learning算法的主要流程
- 19.3.2 Q函数
- 19.3.3 贪婪策略
- 19.4 SARSA算法
- 19.5 DQN算法
- 19.5.1 Q-Learning算法的局限性
- 19.5.2 用深度学习处理强化学习时需要解决的问题
- 19.5.3 用DQN解决问题的方法
- 19.5.4 定义损失函数
- 19.5.5 DQN的经验回放机制
- 19.5.6 目标网络
- 19.5.7 网络模型
- 19.5.8 DQN算法的实现
- 19.6 小结
- 第20章 强化学习实践
- 20.1 Q-Learning算法实例
- 20.2 SARSA算法实例
- 20.2.1 游戏场景
- 20.2.2 核心代码说明
- 20.3 用TensorFlow实现DQN算法
- 20.4 小结
- 附录A TensorFlow-GPU 2+升级安装配置
- A.1 环境分析
- A.2 参考资料
- A.3 安装的准备工作
- A.4 升级GPU驱动
- A.5 安装Python 3.8
- A.6 安装TensorFlow-GPU 2+
- A.6.1 用conda安装
- A.6.2 用pip安装
- A.7 Jupyter Notebook的配置
- A.8 安装验证
- 附录B 从TensorFlow1.x升级到TensorFlow 2.x
- B.1 TensorFlow1.x和TensorFlow 2.x的区别
- B.2 最快速的转换方法
- B.3 自动转换脚本
- B.4 用动态图替换静态图
- B.5 升级示例
展开全部
出版方
机械工业出版社
机械工业出版社是全国优秀出版社,自1952年成立以来,坚持为科技、为教育服务,以向行业、向学校提供优质、权威的精神产品为宗旨,以“服务社会和人民群众需求,传播社会主义先进文化”为己任,产业结构不断完善,已由传统的图书出版向着图书、期刊、电子出版物、音像制品、电子商务一体化延伸,现已发展为多领域、多学科的大型综合性出版社,涉及机械、电工电子、汽车、计算机、经济管理、建筑、ELT、科普以及教材、教辅等领域。