9.5
豆瓣评分
可以朗读
语音朗读
166千字
字数
2019-05-01
发行日期
展开全部
主编推荐语
深入浅出地剖析深度学习的原理和相关技术。
内容简介
书中使用Python3,尽量不依赖外部库或工具,从基本的数学知识出发,带领读者从零创建一个经典的深度学习网络,使读者在此过程中逐步理解深度学习。
书中不仅介绍了深度学习和神经网络的概念、特征等基础知识,对误差反向传播法、卷积神经网络等也有深入讲解,此外还介绍了深度学习相关的实用技巧,自动驾驶、图像生成、强化学习等方面的应用,以及为什么加深层可以提高识别精度等疑难的问题。
目录
- 版权信息
- 内容提要
- O'Reilly Media, Inc.介绍
- 译者序
- 前言
- 第1章 Python入门
- 1.1 Python是什么
- 1.2 Python的安装
- 1.2.1 Python版本
- 1.2.2 使用的外部库
- 1.2.3 Anaconda发行版
- 1.3 Python解释器
- 1.3.1 算术计算
- 1.3.2 数据类型
- 1.3.3 变量
- 1.3.4 列表
- 1.3.5 字典
- 1.3.6 布尔型
- 1.3.7 if 语句
- 1.3.8 for 语句
- 1.3.9 函数
- 1.4 Python脚本文件
- 1.4.1 保存为文件
- 1.4.2 类
- 1.5 NumPy
- 1.5.1 导入 NumPy
- 1.5.2 生成 NumPy 数组
- 1.5.3 NumPy 的算术运算
- 1.5.4 NumPy 的 N 维数组
- 1.5.5 广播
- 1.5.6 访问元素
- 1.6 Matplotlib
- 1.6.1 绘制简单图形
- 1.6.2 pyplot 的功能
- 1.6.3 显示图像
- 1.7 小结
- 第2章 感知机
- 2.1 感知机是什么
- 2.2 简单逻辑电路
- 2.2.1 与门
- 2.2.2 与非门和或门
- 2.3 感知机的实现
- 2.3.1 简单的实现
- 2.3.2 导入权重和偏置
- 2.3.3 使用权重和偏置的实现
- 2.4 感知机的局限性
- 2.4.1 异或门
- 2.4.2 线性和非线性
- 2.5 多层感知机
- 2.5.1 已有门电路的组合
- 2.5.2 异或门的实现
- 2.6 从与非门到计算机
- 2.7 小结
- 第3章 神经网络
- 3.1 从感知机到神经网络
- 3.1.1 神经网络的例子
- 3.1.2 复习感知机
- 3.1.3 激活函数登场
- 3.2 激活函数
- 3.2.1 sigmoid 函数
- 3.2.2 阶跃函数的实现
- 3.2.3 阶跃函数的图形
- 3.2.4 sigmoid 函数的实现
- 3.2.5 sigmoid 函数和阶跃函数的比较
- 3.2.6 非线性函数
- 3.2.7 ReLU函数
- 3.3 多维数组的运算
- 3.3.1 多维数组
- 3.3.2 矩阵乘法
- 3.3.3 神经网络的内积
- 3.4 3 层神经网络的实现
- 3.4.1 符号确认
- 3.4.2 各层间信号传递的实现
- 3.4.3 代码实现小结
- 3.5 输出层的设计
- 3.5.1 恒等函数和 softmax 函数
- 3.5.2 实现 softmax 函数时的注意事项
- 3.5.3 softmax 函数的特征
- 3.5.4 输出层的神经元数量
- 3.6 手写数字识别
- 3.6.1 MNIST 数据集
- 3.6.2 神经网络的推理处理
- 3.6.3 批处理
- 3.7 小结
- 第4章 神经网络的学习
- 4.1 从数据中学习
- 4.1.1 数据驱动
- 4.1.2 训练数据和测试数据
- 4.2 损失函数
- 4.2.1 均方误差
- 4.2.2 交叉熵误差
- 4.2.3 mini-batch 学习
- 4.2.4 mini-batch 版交叉熵误差的实现
- 4.2.5 为何要设定损失函数
- 4.3 数值微分
- 4.3.1 导数
- 4.3.2 数值微分的例子
- 4.3.3 偏导数
- 4.4 梯度
- 4.4.1 梯度法
- 4.4.2 神经网络的梯度
- 4.5 学习算法的实现
- 4.5.1 2 层神经网络的类
- 4.5.2 mini-batch 的实现
- 4.5.3 基于测试数据的评价
- 4.6 小结
- 第5章 误差反向传播法
- 5.1 计算图
- 5.1.1 用计算图求解
- 5.1.2 局部计算
- 5.1.3 为何用计算图解题
- 5.2 链式法则
- 5.2.1 计算图的反向传播
- 5.2.2 什么是链式法则
- 5.2.3 链式法则和计算图
- 5.3 反向传播
- 5.3.1 加法节点的反向传播
- 5.3.2 乘法节点的反向传播
- 5.3.3 苹果的例子
- 5.4 简单层的实现
- 5.4.1 乘法层的实现
- 5.4.2 加法层的实现
- 5.5 激活函数层的实现
- 5.5.1 ReLU层
- 5.5.2 Sigmoid 层
- 5.6 Affine/Softmax 层的实现
- 5.6.1 Affine 层
- 5.6.2 批版本的 Affine 层
- 5.6.3 Softmax-with-Loss 层
- 5.7 误差反向传播法的实现
- 5.7.1 神经网络学习的全貌图
- 5.7.2 对应误差反向传播法的神经网络的实现
- 5.7.3 误差反向传播法的梯度确认
- 5.7.4 使用误差反向传播法的学习
- 5.8 小结
- 第6章 与学习相关的技巧
- 6.1 参数的更新
- 6.1.1 探险家的故事
- 6.1.2 SGD
- 6.1.3 SGD 的缺点
- 6.1.4 Momentum
- 6.1.5 AdaGrad
- 6.1.6 Adam
- 6.1.7 使用哪种更新方法呢
- 6.1.8 基于 MNIST 数据集的更新方法的比较
- 6.2 权重的初始值
- 6.2.1 可以将权重初始值设为 0 吗
- 6.2.2 隐藏层的激活值的分布
- 6.2.3 ReLU的权重初始值
- 6.2.4 基于 MNIST 数据集的权重初始值的比较
- 6.3 Batch Normalization
- 6.3.1 Batch Normalization 的算法
- 6.3.2 Batch Normalization的评估
- 6.4 正则化
- 6.4.1 过拟合
- 6.4.2 权值衰减
- 6.4.3 Dropout
- 6.5 超参数的验证
- 6.5.1 验证数据
- 6.5.2 超参数的最优化
- 6.5.3 超参数最优化的实现
- 6.6 小结
- 第7章 卷积神经网络
- 7.1 整体结构
- 7.2 卷积层
- 7.2.1 全连接层存在的问题
- 7.2.2 卷积运算
- 7.2.3 填充
- 7.2.4 步幅
- 7.2.5 3 维数据的卷积运算
- 7.2.6 结合方块思考
- 7.2.7 批处理
- 7.3 池化层
- 7.4 卷积层和池化层的实现
- 7.4.1 4 维数组
- 7.4.2 基于 im2col 的展开
- 7.4.3 卷积层的实现
- 7.4.4 池化层的实现
- 7.5 CNN的实现
- 7.6 CNN的可视化
- 7.6.1 第 1 层权重的可视化
- 7.6.2 基于分层结构的信息提取
- 7.7 具有代表性的 CNN
- 7.7.1 LeNet
- 7.7.2 AlexNet
- 7.8 小结
- 第8章 深度学习
- 8.1 加深网络
- 8.1.1 向更深的网络出发
- 8.1.2 进一步提高识别精度
- 8.1.3 加深层的动机
- 8.2 深度学习的小历史
- 8.2.1 ImageNet
- 8.2.2 VGG
- 8.2.3 GoogLeNet
- 8.2.4 ResNet
- 8.3 深度学习的高速化
- 8.3.1 需要努力解决的问题
- 8.3.2 基于 GPU 的高速化
- 8.3.3 分布式学习
- 8.3.4 运算精度的位数缩减
- 8.4 深度学习的应用案例
- 8.4.1 物体检测
- 8.4.2 图像分割
- 8.4.3 图像标题的生成
- 8.5 深度学习的未来
- 8.5.1 图像风格变换
- 8.5.2 图像的生成
- 8.5.3 自动驾驶
- 8.5.4 Deep Q-Network(强化学习)
- 8.6 小结
- 附录A Softmax-with-Loss 层的计算图
- A.1 正向传播
- A.2 反向传播
- A.3 小结
- 参考文献
展开全部
出版方
人民邮电出版社
人民邮电出版社是工业和信息化部主管的大型专业出版社,成立于1953年10月1日。人民邮电出版社坚持“立足信息产业、面向现代社会、传播科学知识、服务科教兴国”,致力于通信、计算机、电子技术、教材、少儿、经管、摄影、集邮、旅游、心理学等领域的专业图书出版。