展开全部

主编推荐语

破解深度学习核心知识,助力模型算法与实现的指导手册。

内容简介

本书总计9章,深入浅出地介绍了深度学习的理论与算法基础,从理论到实战全方位展开。前三章旨在帮助读者快速入门,介绍了必要的数学概念和必备工具的用法。后六章沿着深度学习的发展脉络,从最简单的多层感知机开始,讲解了深度神经网络的基本原理、常见挑战、优化算法,以及三大典型模型(基础卷积神经网络、基础循环神经网络和注意力神经网络)。

本书系统全面,深入浅出,且辅以生活中的案例进行类比,以此降低学习难度,帮助读者迅速掌握深度学习的基础知识。本书适合有志于投身人工智能领域的人员阅读,也适合作为高等院校人工智能专业的教学用书。

目录

  • 版权信息
  • 内容提要
  • 作者简介
  • 前言
  • 资源与支持
  • 第1章 欢迎来到深度学习的世界
  • 1.1 什么是深度学习
  • 1.2 主要核心模型
  • 1.2.1 卷积神经网络
  • 1.2.2 循环神经网络
  • 1.2.3 注意力机制
  • 1.2.4 深度生成模型
  • 1.2.5 小结
  • 1.3 研究和应用领域
  • 1.3.1 计算机视觉
  • 1.3.2 语音技术
  • 1.3.3 自然语言处理
  • 1.3.4 多模态融合
  • 1.3.5 小结
  • 1.4 使用的技术栈
  • 1.4.1 编程语言
  • 1.4.2 深度学习框架
  • 1.4.3 数据集
  • 1.4.4 代码编辑器
  • 1.4.5 项目IDE
  • 1.4.6 小结
  • 第2章 必要的数学预备知识
  • 2.1 线性代数
  • 2.1.1 学人工智能为什么要学线性代数
  • 2.1.2 线性代数名字的由来
  • 2.1.3 线性代数的本质作用
  • 2.1.4 学线性代数为何总强调几何意义
  • 2.1.5 标量
  • 2.1.6 向量
  • 2.1.7 矩阵
  • 2.1.8 张量
  • 2.1.9 小结
  • 2.2 微积分
  • 2.2.1 极限
  • 2.2.2 导数
  • 2.2.3 微分
  • 2.2.4 偏导数
  • 2.2.5 梯度
  • 2.2.6 链式法则
  • 2.2.7 小结
  • 2.3 概率统计
  • 2.3.1 什么是概率
  • 2.3.2 概率和统计
  • 2.3.3 贝叶斯定理
  • 2.3.4 最大似然估计
  • 2.3.5 小结
  • 第3章 环境安装和工具使用
  • 3.1 配置深度学习环境
  • 3.1.1 CUDA简介
  • 3.1.2 显卡驱动
  • 3.1.3 安装CUDA
  • 3.1.4 安装Anaconda
  • 3.1.5 小结
  • 3.2 conda实用命令
  • 3.2.1 Anaconda 图形化界面介绍
  • 3.2.2 conda的命令行操作
  • 3.2.3 小结
  • 3.3 Jupyter Notebook快速上手
  • 3.3.1 Jupyter Notebook的安装与运行
  • 3.3.2 常用配置项
  • 3.3.3 快捷键
  • 3.3.4 Markdown语法
  • 3.3.5 小结
  • 3.4 安装深度学习框架PyTorch
  • 3.4.1 PyTorch、CUDA与NVIDIA
  • 3.4.2 安装PyTorch
  • 3.4.3 验证安装是否成功
  • 3.4.4 小结
  • 第4章 深度神经网络:误差倒查分解
  • 4.1 神经网络原理
  • 4.1.1 神经元模型
  • 4.1.2 神经网络结构
  • 4.1.3 损失函数
  • 4.1.4 反向传播
  • 4.1.5 小结
  • 4.2 多层感知机
  • 4.2.1 线性模型的局限
  • 4.2.2 多层感知机模型
  • 4.2.3 激活函数
  • 4.2.4 小结
  • 4.3 前向传播和反向传播
  • 4.3.1 前向传播
  • 4.3.2 反向传播
  • 4.3.3 小结
  • 4.4 多层感知机代码实现
  • 4.4.1 搭建神经网络的步骤
  • 4.4.2 代码实现
  • 4.4.3 小结
  • 4.5 回归问题
  • 4.5.1 一元线性回归
  • 4.5.2 多元线性回归
  • 4.5.3 多项式回归
  • 4.5.4 简单理解梯度下降
  • 4.5.5 代码实现
  • 4.5.6 小结
  • 4.6 分类问题
  • 4.6.1 多分类问题的数学表示
  • 4.6.2 Softmax回归
  • 4.6.3 对数损失函数
  • 4.6.4 交叉熵损失函数
  • 4.6.5 代码实现
  • 4.6.6 小结
  • 第5章 常见挑战及对策:一切为了泛化能力
  • 5.1 训练问题分析
  • 5.1.1 模型架构设计
  • 5.1.2 过拟合与欠拟合
  • 5.1.3 代码实现
  • 5.1.4 小结
  • 5.2 过拟合欠拟合应对策略
  • 5.2.1 数据集选择
  • 5.2.2 模型选择
  • 5.2.3 训练策略选择
  • 5.2.4 小结
  • 5.3 正则化
  • 5.3.1 正则化定义
  • 5.3.2 L1正则化
  • 5.3.3 L2正则化
  • 5.3.4 范数惩罚
  • 5.3.5 权重衰减
  • 5.3.6 小结
  • 5.4 Dropout方法及代码实现
  • 5.4.1 基本原理
  • 5.4.2 直观解释
  • 5.4.3 优缺点分析
  • 5.4.4 代码实现
  • 5.4.5 小结
  • 5.5 梯度消失和梯度爆炸
  • 5.5.1 根源分析
  • 5.5.2 梯度消失
  • 5.5.3 梯度爆炸
  • 5.5.4 解决办法
  • 5.5.5 小结
  • 5.6 模型文件的读写
  • 5.6.1 张量的保存和加载
  • 5.6.2 模型参数的保存和加载
  • 5.6.3 小结
  • 第6章 梯度下降算法及变体:高效求解模型参数
  • 6.1 为什么要学最优化
  • 6.1.1 深度学习的最优化
  • 6.1.2 训练误差和泛化误差
  • 6.1.3 常见的优化挑战
  • 6.1.4 小结
  • 6.2 损失函数及其性质
  • 6.2.1 起源和重要性
  • 6.2.2 最大似然估计
  • 6.2.3 最大后验
  • 6.2.4 贝叶斯估计
  • 6.2.5 损失函数的性质
  • 6.2.6 小结
  • 6.3 梯度下降算法
  • 6.3.1 搜索逼近策略
  • 6.3.2 梯度
  • 6.3.3 偏导数链式法则
  • 6.3.4 学习率
  • 6.3.5 梯度下降算法
  • 6.3.6 小结
  • 6.4 梯度下降算法的各种变体
  • 6.4.1 加速版改进:随机梯度下降法
  • 6.4.2 折中版改进:小批量随机梯度下降法
  • 6.4.3 一阶动量改进版:动量法
  • 6.4.4 二阶动量改进版:AdaGrad算法
  • 6.4.5 自动调整学习率:RMSProp和AdaDelta算法
  • 6.4.6 自适应动量:Adam算法
  • 6.4.7 算法大串联及讨论
  • 6.4.8 小结
  • 6.5 梯度下降算法代码实现
  • 6.5.1 梯度下降过程
  • 6.5.2 不同优化器效果对比
  • 6.5.3 小结
  • 6.6 学习率调节器
  • 6.6.1 简介
  • 6.6.2 常见的学习率调节器
  • 6.6.3 代码实现
  • 6.6.4 模型训练对比
  • 6.6.5 常见学习率调节器的实现
  • 6.6.6 小结
  • 第7章 基础卷积神经网络:图像处理利器
  • 7.1 为什么要用卷积神经网络
  • 7.1.1 全连接层的问题
  • 7.1.2 多层感知机的局限
  • 7.1.3 解决思路
  • 7.1.4 小结
  • 7.2 图像卷积
  • 7.2.1 卷积
  • 7.2.2 图像卷积
  • 7.2.3 互相关运算
  • 7.2.4 小结
  • 7.3 卷积层
  • 7.3.1 网络结构
  • 7.3.2 感受野
  • 7.3.3 与全连接层的区别
  • 7.3.4 小结
  • 7.4 卷积层常见操作
  • 7.4.1 填充
  • 7.4.2 步长
  • 7.4.3 卷积常见参数关系
  • 7.4.4 多通道卷积
  • 7.4.5 分组卷积
  • 7.4.6 小结
  • 7.5 池化层
  • 7.5.1 卷积神经网络典型结构
  • 7.5.2 最大池化和平均池化
  • 7.5.3 池化层特点
  • 7.5.4 小结
  • 7.6 卷积神经网络代码实现
  • 7.6.1 LeNet简介
  • 7.6.2 代码实现
  • 7.6.3 模型训练
  • 7.6.4 小结
  • 第8章 基础循环神经网络:为序列数据而生
  • 8.1 序列建模
  • 8.1.1 序列数据
  • 8.1.2 序列模型
  • 8.1.3 小结
  • 8.2 文本数据预处理
  • 8.2.1 预处理流程
  • 8.2.2 去除噪声
  • 8.2.3 分词
  • 8.2.4 去除停用词
  • 8.2.5 标准化
  • 8.2.6 词表
  • 8.2.7 特征提取
  • 8.2.8 小结
  • 8.3 循环神经网络
  • 8.3.1 核心思想
  • 8.3.2 展开计算图
  • 8.3.3 RNN结构
  • 8.3.4 训练模式
  • 8.3.5 小结
  • 8.4 RNN的反向传播
  • 8.4.1 沿时间反向传播
  • 8.4.2 参数梯度
  • 8.4.3 小结
  • 8.5 时间序列数据预测
  • 8.5.1 数据集准备
  • 8.5.2 构建模型
  • 8.5.3 小结
  • 8.6 编解码器思想及Seq2Seq模型
  • 8.6.1 编解码器思想
  • 8.6.2 序列到序列学习
  • 8.6.3 编码器
  • 8.6.4 解码器
  • 8.6.5 模型训练
  • 8.6.6 束搜索算法
  • 8.6.7 小结
  • 8.7 Seq2Seq模型代码实现
  • 8.7.1 模型架构
  • 8.7.2 Seq2Seq模型简单实现
  • 8.7.3 小结
  • 第9章 注意力神经网络:赋予模型认知能力
  • 9.1 注意力机制的原理
  • 9.1.1 生物学中的注意力
  • 9.1.2 深度学习中的注意力机制
  • 9.1.3 编解码器思想和注意力机制的结合
  • 9.1.4 注意力的计算
  • 9.1.5 全局注意力、局部注意力和自注意力
  • 9.1.6 注意力机制与Transformer
  • 9.1.7 注意力机制的应用
  • 9.1.8 小结
  • 9.2 复杂注意力机制
  • 9.2.1 经典注意力机制计算的局限性
  • 9.2.2 键值对注意力
  • 9.2.3 多头注意力
  • 9.2.4 自注意力
  • 9.2.5 小结
  • 9.3 注意力池化及代码实现
  • 9.3.1 注意力可视化
  • 9.3.2 注意力池化
  • 9.3.3 小结
  • 9.4 Transformer模型
  • 9.4.1 模型结构
  • 9.4.2 编码器结构
  • 9.4.3 多头自注意力层
  • 9.4.4 位置嵌入
  • 9.4.5 残差结构
  • 9.4.6 解码器
  • 9.4.7 编解码器的协同工作
  • 9.4.8 线性层和Softmax层
  • 9.4.9 优缺点
  • 9.4.10 小结
  • 9.5 Transformer模型的代码实现
  • 9.5.1 任务数据
  • 9.5.2 Transformer模型
  • 9.5.3 小结
展开全部

评分及书评

尚无评分
目前还没人评分

出版方

人民邮电出版社

人民邮电出版社是工业和信息化部主管的大型专业出版社,成立于1953年10月1日。人民邮电出版社坚持“立足信息产业、面向现代社会、传播科学知识、服务科教兴国”,致力于通信、计算机、电子技术、教材、少儿、经管、摄影、集邮、旅游、心理学等领域的专业图书出版。