展开全部

主编推荐语

李宏毅老师深度学习公开课的生动实例,从理论到实践全面深入。

内容简介

本书根据李宏毅老师“机器学习”公开课中与深度学习相关的内容编写而成,介绍了卷积神经网络、Transformer、生成模型、自监督学习(包括BERT和GPT)等深度学习常见算法,并讲解了对抗攻击、领域自适应、强化学习、元学习、终身学习、网络压缩等深度学习相关的进阶算法。

在理论严谨的基础上,本书保留了公开课中大量生动有趣的例子,帮助读者从生活化的角度理解深度学习的概念、建模过程和核心算法细节。

目录

  • 版权信息
  • 内容提要
  • 致谢
  • 前言
  • 资源与支持
  • 主要符号表
  • 第1章 机器学习基础
  • 1.1 案例学习
  • 1.2 线性模型
  • 1.2.1 分段线性曲线
  • 1.2.2 模型变形
  • 1.2.3 机器学习框架
  • 第2章 实践方法论
  • 2.1 模型偏差
  • 2.2 优化问题
  • 2.3 过拟合
  • 2.4 交叉验证
  • 2.5 不匹配
  • 参考资料
  • 第3章 深度学习基础
  • 3.1 局部最小值与鞍点
  • 3.1.1 临界点及其种类
  • 3.1.2 判断临界值种类的方法
  • 3.1.3 逃离鞍点的方法
  • 3.2 批量和动量
  • 3.2.1 批量大小对梯度下降法的影响
  • 3.2.2 动量法
  • 3.3 自适应学习率
  • 3.3.1 AdaGrad
  • 3.3.2 RMSProp
  • 3.3.3 Adam
  • 3.4 学习率调度
  • 3.5 优化总结
  • 3.6 分类
  • 3.6.1 分类与回归的关系
  • 3.6.2 带有softmax函数的分类
  • 3.6.3 分类损失
  • 3.7 批量归一化
  • 3.7.1 放入深度神经网络
  • 3.7.2 测试时的批量归一化
  • 3.7.3 内部协变量偏移
  • 参考资料
  • 第4章 卷积神经网络
  • 4.1 观察1:检测模式不需要整幅图像
  • 4.2 简化1:感受野
  • 4.3 观察2:同样的模式可能出现在图像的不同区域
  • 4.4 简化2:共享参数
  • 4.5 简化1和简化2的总结
  • 4.6 观察3:下采样不影响模式检测
  • 4.7 简化3:汇聚
  • 4.8 卷积神经网络的应用:下围棋
  • 参考资料
  • 第5章 循环神经网络
  • 5.1 独热编码
  • 5.2 什么是RNN
  • 5.3 RNN架构
  • 5.4 其他RNN
  • 5.4.1 Elman网络和Jordan网络
  • 5.4.2 双向循环神经网络
  • 5.4.3 LSTM
  • 5.4.4 LSTM举例
  • 5.4.5 LSTM运算示例
  • 5.5 LSTM网络原理
  • 5.6 RNN的学习方式
  • 5.7 如何解决RNN的梯度消失或梯度爆炸问题
  • 5.8 RNN的其他应用
  • 5.8.1 多对一序列
  • 5.8.2 多对多序列
  • 5.8.3 序列到序列
  • 参考资料
  • 第6章 自注意力机制
  • 6.1 输入是向量序列的情况
  • 6.1.1 类型1:输入与输出数量相同
  • 6.1.2 类型2:输入是一个序列,输出是一个标签
  • 6.1.3 类型3:序列到序列任务
  • 6.2 自注意力机制的运作原理
  • 6.3 多头自注意力
  • 6.4 位置编码
  • 6.5 截断自注意力
  • 6.6 对比自注意力与卷积神经网络
  • 6.7 对比自注意力与循环神经网络
  • 参考资料
  • 第7章 Transformer
  • 7.1 序列到序列模型
  • 7.1.1 语音识别、机器翻译与语音翻译
  • 7.1.2 语音合成
  • 7.1.3 聊天机器人
  • 7.1.4 问答任务
  • 7.1.5 句法分析
  • 7.1.6 多标签分类
  • 7.2 Transformer结构
  • 7.3 Transformer编码器
  • 7.4 Transformer解码器
  • 7.4.1 自回归解码器
  • 7.4.2 非自回归解码器
  • 7.5 编码器-解码器注意力
  • 7.6 Transformer的训练过程
  • 7.7 序列到序列模型训练常用技巧
  • 7.7.1 复制机制
  • 7.7.2 引导注意力
  • 7.7.3 束搜索
  • 7.7.4 加入噪声
  • 7.7.5 使用强化学习训练
  • 7.7.6 计划采样
  • 参考资料
  • 第8章 生成模型
  • 8.1 生成对抗网络
  • 8.1.1 生成器
  • 8.1.2 判别器
  • 8.2 生成器与判别器的训练过程
  • 8.3 GAN的应用案例
  • 8.4 GAN的理论介绍
  • 8.5 WGAN算法
  • 8.6 GAN训练的难点与技巧
  • 8.7 GAN的性能评估方法
  • 8.8 条件型生成
  • 8.9 CycleGAN
  • 参考资料
  • 第9章 扩散模型
  • 9.1 扩散模型生成图片的过程
  • 9.2 去噪模块
  • 9.3 训练噪声预测器
  • 第10章 自监督学习
  • 10.1 BERT
  • 10.1.1 BERT的使用方式
  • 10.1.2 BERT有用的原因
  • 10.1.3 BERT的变体
  • 10.2 GPT
  • 参考资料
  • 第11章 自编码器
  • 11.1 自编码器的概念
  • 11.2 为什么需要自编码器
  • 11.3 去噪自编码器
  • 11.4 自编码器应用之特征解耦
  • 11.5 自编码器应用之离散隐表征
  • 11.6 自编码器的其他应用
  • 第12章 对抗攻击
  • 12.1 对抗攻击简介
  • 12.2 如何进行网络攻击
  • 12.3 快速梯度符号法
  • 12.4 白箱攻击与黑箱攻击
  • 12.5 其他模态数据被攻击案例
  • 12.6 现实世界中的攻击
  • 12.7 防御方式中的被动防御
  • 12.8 防御方式中的主动防御
  • 第13章 迁移学习
  • 13.1 领域偏移
  • 13.2 领域自适应
  • 13.3 领域泛化
  • 参考资料
  • 第14章 强化学习
  • 14.1 强化学习的应用
  • 14.1.1 玩电子游戏
  • 14.1.2 下围棋
  • 14.2 强化学习框架
  • 14.2.1 第1步:定义函数
  • 14.2.2 第2步:定义损失
  • 14.2.3 第3步:优化
  • 14.3 评价动作的标准
  • 14.3.1 使用即时奖励作为评价标准
  • 14.3.2 使用累积奖励作为评价标准
  • 14.3.3 使用折扣累积奖励作为评价标准
  • 14.3.4 使用折扣累积奖励减去基线作为评价标准
  • 14.3.5 Actor-Critic
  • 14.3.6 优势Actor-Critic
  • 参考资料
  • 第15章 元学习
  • 15.1 元学习的概念
  • 15.2 元学习的三个步骤
  • 15.3 元学习与机器学习
  • 15.4 元学习的实例算法
  • 15.5 元学习的应用
  • 参考资料
  • 第16章 终身学习
  • 16.1 灾难性遗忘
  • 16.2 终身学习的评估方法
  • 16.3 终身学习问题的主要解法
  • 第17章 网络压缩
  • 17.1 网络剪枝
  • 17.2 知识蒸馏
  • 17.3 参数量化
  • 17.4 网络架构设计
  • 17.5 动态计算
  • 参考资料
  • 第18章 可解释性机器学习
  • 18.1 可解释性人工智能的重要性
  • 18.2 决策树模型的可解释性
  • 18.3 可解释性机器学习的目标
  • 18.4 可解释性机器学习中的局部解释
  • 18.5 可解释性机器学习中的全局解释
  • 18.6 扩展与小结
  • 参考资料
  • 第19章 ChatGPT
  • 19.1 ChatGPT简介和功能
  • 19.2 对ChatGPT的误解
  • 19.3 ChatGPT背后的关键技术
  • 19.4 ChatGPT带来的研究问题
  • 索引
展开全部

评分及书评

评分不足
1个评分

出版方

人民邮电出版社

人民邮电出版社是工业和信息化部主管的大型专业出版社,成立于1953年10月1日。人民邮电出版社坚持“立足信息产业、面向现代社会、传播科学知识、服务科教兴国”,致力于通信、计算机、电子技术、教材、少儿、经管、摄影、集邮、旅游、心理学等领域的专业图书出版。