互联网
类型
可以朗读
语音朗读
208千字
字数
2024-10-01
发行日期
展开全部
主编推荐语
破解深度学习核心知识,助力模型算法与实现的指导手册。
内容简介
本书总计9章,深入浅出地介绍了深度学习的理论与算法基础,从理论到实战全方位展开。前三章旨在帮助读者快速入门,介绍了必要的数学概念和必备工具的用法。后六章沿着深度学习的发展脉络,从最简单的多层感知机开始,讲解了深度神经网络的基本原理、常见挑战、优化算法,以及三大典型模型(基础卷积神经网络、基础循环神经网络和注意力神经网络)。
本书系统全面,深入浅出,且辅以生活中的案例进行类比,以此降低学习难度,帮助读者迅速掌握深度学习的基础知识。本书适合有志于投身人工智能领域的人员阅读,也适合作为高等院校人工智能专业的教学用书。
目录
- 版权信息
- 内容提要
- 作者简介
- 前言
- 资源与支持
- 第1章 欢迎来到深度学习的世界
- 1.1 什么是深度学习
- 1.2 主要核心模型
- 1.2.1 卷积神经网络
- 1.2.2 循环神经网络
- 1.2.3 注意力机制
- 1.2.4 深度生成模型
- 1.2.5 小结
- 1.3 研究和应用领域
- 1.3.1 计算机视觉
- 1.3.2 语音技术
- 1.3.3 自然语言处理
- 1.3.4 多模态融合
- 1.3.5 小结
- 1.4 使用的技术栈
- 1.4.1 编程语言
- 1.4.2 深度学习框架
- 1.4.3 数据集
- 1.4.4 代码编辑器
- 1.4.5 项目IDE
- 1.4.6 小结
- 第2章 必要的数学预备知识
- 2.1 线性代数
- 2.1.1 学人工智能为什么要学线性代数
- 2.1.2 线性代数名字的由来
- 2.1.3 线性代数的本质作用
- 2.1.4 学线性代数为何总强调几何意义
- 2.1.5 标量
- 2.1.6 向量
- 2.1.7 矩阵
- 2.1.8 张量
- 2.1.9 小结
- 2.2 微积分
- 2.2.1 极限
- 2.2.2 导数
- 2.2.3 微分
- 2.2.4 偏导数
- 2.2.5 梯度
- 2.2.6 链式法则
- 2.2.7 小结
- 2.3 概率统计
- 2.3.1 什么是概率
- 2.3.2 概率和统计
- 2.3.3 贝叶斯定理
- 2.3.4 最大似然估计
- 2.3.5 小结
- 第3章 环境安装和工具使用
- 3.1 配置深度学习环境
- 3.1.1 CUDA简介
- 3.1.2 显卡驱动
- 3.1.3 安装CUDA
- 3.1.4 安装Anaconda
- 3.1.5 小结
- 3.2 conda实用命令
- 3.2.1 Anaconda 图形化界面介绍
- 3.2.2 conda的命令行操作
- 3.2.3 小结
- 3.3 Jupyter Notebook快速上手
- 3.3.1 Jupyter Notebook的安装与运行
- 3.3.2 常用配置项
- 3.3.3 快捷键
- 3.3.4 Markdown语法
- 3.3.5 小结
- 3.4 安装深度学习框架PyTorch
- 3.4.1 PyTorch、CUDA与NVIDIA
- 3.4.2 安装PyTorch
- 3.4.3 验证安装是否成功
- 3.4.4 小结
- 第4章 深度神经网络:误差倒查分解
- 4.1 神经网络原理
- 4.1.1 神经元模型
- 4.1.2 神经网络结构
- 4.1.3 损失函数
- 4.1.4 反向传播
- 4.1.5 小结
- 4.2 多层感知机
- 4.2.1 线性模型的局限
- 4.2.2 多层感知机模型
- 4.2.3 激活函数
- 4.2.4 小结
- 4.3 前向传播和反向传播
- 4.3.1 前向传播
- 4.3.2 反向传播
- 4.3.3 小结
- 4.4 多层感知机代码实现
- 4.4.1 搭建神经网络的步骤
- 4.4.2 代码实现
- 4.4.3 小结
- 4.5 回归问题
- 4.5.1 一元线性回归
- 4.5.2 多元线性回归
- 4.5.3 多项式回归
- 4.5.4 简单理解梯度下降
- 4.5.5 代码实现
- 4.5.6 小结
- 4.6 分类问题
- 4.6.1 多分类问题的数学表示
- 4.6.2 Softmax回归
- 4.6.3 对数损失函数
- 4.6.4 交叉熵损失函数
- 4.6.5 代码实现
- 4.6.6 小结
- 第5章 常见挑战及对策:一切为了泛化能力
- 5.1 训练问题分析
- 5.1.1 模型架构设计
- 5.1.2 过拟合与欠拟合
- 5.1.3 代码实现
- 5.1.4 小结
- 5.2 过拟合欠拟合应对策略
- 5.2.1 数据集选择
- 5.2.2 模型选择
- 5.2.3 训练策略选择
- 5.2.4 小结
- 5.3 正则化
- 5.3.1 正则化定义
- 5.3.2 L1正则化
- 5.3.3 L2正则化
- 5.3.4 范数惩罚
- 5.3.5 权重衰减
- 5.3.6 小结
- 5.4 Dropout方法及代码实现
- 5.4.1 基本原理
- 5.4.2 直观解释
- 5.4.3 优缺点分析
- 5.4.4 代码实现
- 5.4.5 小结
- 5.5 梯度消失和梯度爆炸
- 5.5.1 根源分析
- 5.5.2 梯度消失
- 5.5.3 梯度爆炸
- 5.5.4 解决办法
- 5.5.5 小结
- 5.6 模型文件的读写
- 5.6.1 张量的保存和加载
- 5.6.2 模型参数的保存和加载
- 5.6.3 小结
- 第6章 梯度下降算法及变体:高效求解模型参数
- 6.1 为什么要学最优化
- 6.1.1 深度学习的最优化
- 6.1.2 训练误差和泛化误差
- 6.1.3 常见的优化挑战
- 6.1.4 小结
- 6.2 损失函数及其性质
- 6.2.1 起源和重要性
- 6.2.2 最大似然估计
- 6.2.3 最大后验
- 6.2.4 贝叶斯估计
- 6.2.5 损失函数的性质
- 6.2.6 小结
- 6.3 梯度下降算法
- 6.3.1 搜索逼近策略
- 6.3.2 梯度
- 6.3.3 偏导数链式法则
- 6.3.4 学习率
- 6.3.5 梯度下降算法
- 6.3.6 小结
- 6.4 梯度下降算法的各种变体
- 6.4.1 加速版改进:随机梯度下降法
- 6.4.2 折中版改进:小批量随机梯度下降法
- 6.4.3 一阶动量改进版:动量法
- 6.4.4 二阶动量改进版:AdaGrad算法
- 6.4.5 自动调整学习率:RMSProp和AdaDelta算法
- 6.4.6 自适应动量:Adam算法
- 6.4.7 算法大串联及讨论
- 6.4.8 小结
- 6.5 梯度下降算法代码实现
- 6.5.1 梯度下降过程
- 6.5.2 不同优化器效果对比
- 6.5.3 小结
- 6.6 学习率调节器
- 6.6.1 简介
- 6.6.2 常见的学习率调节器
- 6.6.3 代码实现
- 6.6.4 模型训练对比
- 6.6.5 常见学习率调节器的实现
- 6.6.6 小结
- 第7章 基础卷积神经网络:图像处理利器
- 7.1 为什么要用卷积神经网络
- 7.1.1 全连接层的问题
- 7.1.2 多层感知机的局限
- 7.1.3 解决思路
- 7.1.4 小结
- 7.2 图像卷积
- 7.2.1 卷积
- 7.2.2 图像卷积
- 7.2.3 互相关运算
- 7.2.4 小结
- 7.3 卷积层
- 7.3.1 网络结构
- 7.3.2 感受野
- 7.3.3 与全连接层的区别
- 7.3.4 小结
- 7.4 卷积层常见操作
- 7.4.1 填充
- 7.4.2 步长
- 7.4.3 卷积常见参数关系
- 7.4.4 多通道卷积
- 7.4.5 分组卷积
- 7.4.6 小结
- 7.5 池化层
- 7.5.1 卷积神经网络典型结构
- 7.5.2 最大池化和平均池化
- 7.5.3 池化层特点
- 7.5.4 小结
- 7.6 卷积神经网络代码实现
- 7.6.1 LeNet简介
- 7.6.2 代码实现
- 7.6.3 模型训练
- 7.6.4 小结
- 第8章 基础循环神经网络:为序列数据而生
- 8.1 序列建模
- 8.1.1 序列数据
- 8.1.2 序列模型
- 8.1.3 小结
- 8.2 文本数据预处理
- 8.2.1 预处理流程
- 8.2.2 去除噪声
- 8.2.3 分词
- 8.2.4 去除停用词
- 8.2.5 标准化
- 8.2.6 词表
- 8.2.7 特征提取
- 8.2.8 小结
- 8.3 循环神经网络
- 8.3.1 核心思想
- 8.3.2 展开计算图
- 8.3.3 RNN结构
- 8.3.4 训练模式
- 8.3.5 小结
- 8.4 RNN的反向传播
- 8.4.1 沿时间反向传播
- 8.4.2 参数梯度
- 8.4.3 小结
- 8.5 时间序列数据预测
- 8.5.1 数据集准备
- 8.5.2 构建模型
- 8.5.3 小结
- 8.6 编解码器思想及Seq2Seq模型
- 8.6.1 编解码器思想
- 8.6.2 序列到序列学习
- 8.6.3 编码器
- 8.6.4 解码器
- 8.6.5 模型训练
- 8.6.6 束搜索算法
- 8.6.7 小结
- 8.7 Seq2Seq模型代码实现
- 8.7.1 模型架构
- 8.7.2 Seq2Seq模型简单实现
- 8.7.3 小结
- 第9章 注意力神经网络:赋予模型认知能力
- 9.1 注意力机制的原理
- 9.1.1 生物学中的注意力
- 9.1.2 深度学习中的注意力机制
- 9.1.3 编解码器思想和注意力机制的结合
- 9.1.4 注意力的计算
- 9.1.5 全局注意力、局部注意力和自注意力
- 9.1.6 注意力机制与Transformer
- 9.1.7 注意力机制的应用
- 9.1.8 小结
- 9.2 复杂注意力机制
- 9.2.1 经典注意力机制计算的局限性
- 9.2.2 键值对注意力
- 9.2.3 多头注意力
- 9.2.4 自注意力
- 9.2.5 小结
- 9.3 注意力池化及代码实现
- 9.3.1 注意力可视化
- 9.3.2 注意力池化
- 9.3.3 小结
- 9.4 Transformer模型
- 9.4.1 模型结构
- 9.4.2 编码器结构
- 9.4.3 多头自注意力层
- 9.4.4 位置嵌入
- 9.4.5 残差结构
- 9.4.6 解码器
- 9.4.7 编解码器的协同工作
- 9.4.8 线性层和Softmax层
- 9.4.9 优缺点
- 9.4.10 小结
- 9.5 Transformer模型的代码实现
- 9.5.1 任务数据
- 9.5.2 Transformer模型
- 9.5.3 小结
展开全部
出版方
人民邮电出版社
人民邮电出版社是工业和信息化部主管的大型专业出版社,成立于1953年10月1日。人民邮电出版社坚持“立足信息产业、面向现代社会、传播科学知识、服务科教兴国”,致力于通信、计算机、电子技术、教材、少儿、经管、摄影、集邮、旅游、心理学等领域的专业图书出版。