科技
类型
8.5
豆瓣评分
可以朗读
语音朗读
227千字
字数
2024-08-01
发行日期
展开全部
主编推荐语
李宏毅老师深度学习公开课的生动实例,从理论到实践全面深入。
内容简介
本书根据李宏毅老师“机器学习”公开课中与深度学习相关的内容编写而成,介绍了卷积神经网络、Transformer、生成模型、自监督学习(包括BERT和GPT)等深度学习常见算法,并讲解了对抗攻击、领域自适应、强化学习、元学习、终身学习、网络压缩等深度学习相关的进阶算法。
在理论严谨的基础上,本书保留了公开课中大量生动有趣的例子,帮助读者从生活化的角度理解深度学习的概念、建模过程和核心算法细节。
目录
- 版权信息
- 内容提要
- 致谢
- 前言
- 资源与支持
- 主要符号表
- 第1章 机器学习基础
- 1.1 案例学习
- 1.2 线性模型
- 1.2.1 分段线性曲线
- 1.2.2 模型变形
- 1.2.3 机器学习框架
- 第2章 实践方法论
- 2.1 模型偏差
- 2.2 优化问题
- 2.3 过拟合
- 2.4 交叉验证
- 2.5 不匹配
- 参考资料
- 第3章 深度学习基础
- 3.1 局部最小值与鞍点
- 3.1.1 临界点及其种类
- 3.1.2 判断临界值种类的方法
- 3.1.3 逃离鞍点的方法
- 3.2 批量和动量
- 3.2.1 批量大小对梯度下降法的影响
- 3.2.2 动量法
- 3.3 自适应学习率
- 3.3.1 AdaGrad
- 3.3.2 RMSProp
- 3.3.3 Adam
- 3.4 学习率调度
- 3.5 优化总结
- 3.6 分类
- 3.6.1 分类与回归的关系
- 3.6.2 带有softmax函数的分类
- 3.6.3 分类损失
- 3.7 批量归一化
- 3.7.1 放入深度神经网络
- 3.7.2 测试时的批量归一化
- 3.7.3 内部协变量偏移
- 参考资料
- 第4章 卷积神经网络
- 4.1 观察1:检测模式不需要整幅图像
- 4.2 简化1:感受野
- 4.3 观察2:同样的模式可能出现在图像的不同区域
- 4.4 简化2:共享参数
- 4.5 简化1和简化2的总结
- 4.6 观察3:下采样不影响模式检测
- 4.7 简化3:汇聚
- 4.8 卷积神经网络的应用:下围棋
- 参考资料
- 第5章 循环神经网络
- 5.1 独热编码
- 5.2 什么是RNN
- 5.3 RNN架构
- 5.4 其他RNN
- 5.4.1 Elman网络和Jordan网络
- 5.4.2 双向循环神经网络
- 5.4.3 LSTM
- 5.4.4 LSTM举例
- 5.4.5 LSTM运算示例
- 5.5 LSTM网络原理
- 5.6 RNN的学习方式
- 5.7 如何解决RNN的梯度消失或梯度爆炸问题
- 5.8 RNN的其他应用
- 5.8.1 多对一序列
- 5.8.2 多对多序列
- 5.8.3 序列到序列
- 参考资料
- 第6章 自注意力机制
- 6.1 输入是向量序列的情况
- 6.1.1 类型1:输入与输出数量相同
- 6.1.2 类型2:输入是一个序列,输出是一个标签
- 6.1.3 类型3:序列到序列任务
- 6.2 自注意力机制的运作原理
- 6.3 多头自注意力
- 6.4 位置编码
- 6.5 截断自注意力
- 6.6 对比自注意力与卷积神经网络
- 6.7 对比自注意力与循环神经网络
- 参考资料
- 第7章 Transformer
- 7.1 序列到序列模型
- 7.1.1 语音识别、机器翻译与语音翻译
- 7.1.2 语音合成
- 7.1.3 聊天机器人
- 7.1.4 问答任务
- 7.1.5 句法分析
- 7.1.6 多标签分类
- 7.2 Transformer结构
- 7.3 Transformer编码器
- 7.4 Transformer解码器
- 7.4.1 自回归解码器
- 7.4.2 非自回归解码器
- 7.5 编码器-解码器注意力
- 7.6 Transformer的训练过程
- 7.7 序列到序列模型训练常用技巧
- 7.7.1 复制机制
- 7.7.2 引导注意力
- 7.7.3 束搜索
- 7.7.4 加入噪声
- 7.7.5 使用强化学习训练
- 7.7.6 计划采样
- 参考资料
- 第8章 生成模型
- 8.1 生成对抗网络
- 8.1.1 生成器
- 8.1.2 判别器
- 8.2 生成器与判别器的训练过程
- 8.3 GAN的应用案例
- 8.4 GAN的理论介绍
- 8.5 WGAN算法
- 8.6 GAN训练的难点与技巧
- 8.7 GAN的性能评估方法
- 8.8 条件型生成
- 8.9 CycleGAN
- 参考资料
- 第9章 扩散模型
- 9.1 扩散模型生成图片的过程
- 9.2 去噪模块
- 9.3 训练噪声预测器
- 第10章 自监督学习
- 10.1 BERT
- 10.1.1 BERT的使用方式
- 10.1.2 BERT有用的原因
- 10.1.3 BERT的变体
- 10.2 GPT
- 参考资料
- 第11章 自编码器
- 11.1 自编码器的概念
- 11.2 为什么需要自编码器
- 11.3 去噪自编码器
- 11.4 自编码器应用之特征解耦
- 11.5 自编码器应用之离散隐表征
- 11.6 自编码器的其他应用
- 第12章 对抗攻击
- 12.1 对抗攻击简介
- 12.2 如何进行网络攻击
- 12.3 快速梯度符号法
- 12.4 白箱攻击与黑箱攻击
- 12.5 其他模态数据被攻击案例
- 12.6 现实世界中的攻击
- 12.7 防御方式中的被动防御
- 12.8 防御方式中的主动防御
- 第13章 迁移学习
- 13.1 领域偏移
- 13.2 领域自适应
- 13.3 领域泛化
- 参考资料
- 第14章 强化学习
- 14.1 强化学习的应用
- 14.1.1 玩电子游戏
- 14.1.2 下围棋
- 14.2 强化学习框架
- 14.2.1 第1步:定义函数
- 14.2.2 第2步:定义损失
- 14.2.3 第3步:优化
- 14.3 评价动作的标准
- 14.3.1 使用即时奖励作为评价标准
- 14.3.2 使用累积奖励作为评价标准
- 14.3.3 使用折扣累积奖励作为评价标准
- 14.3.4 使用折扣累积奖励减去基线作为评价标准
- 14.3.5 Actor-Critic
- 14.3.6 优势Actor-Critic
- 参考资料
- 第15章 元学习
- 15.1 元学习的概念
- 15.2 元学习的三个步骤
- 15.3 元学习与机器学习
- 15.4 元学习的实例算法
- 15.5 元学习的应用
- 参考资料
- 第16章 终身学习
- 16.1 灾难性遗忘
- 16.2 终身学习的评估方法
- 16.3 终身学习问题的主要解法
- 第17章 网络压缩
- 17.1 网络剪枝
- 17.2 知识蒸馏
- 17.3 参数量化
- 17.4 网络架构设计
- 17.5 动态计算
- 参考资料
- 第18章 可解释性机器学习
- 18.1 可解释性人工智能的重要性
- 18.2 决策树模型的可解释性
- 18.3 可解释性机器学习的目标
- 18.4 可解释性机器学习中的局部解释
- 18.5 可解释性机器学习中的全局解释
- 18.6 扩展与小结
- 参考资料
- 第19章 ChatGPT
- 19.1 ChatGPT简介和功能
- 19.2 对ChatGPT的误解
- 19.3 ChatGPT背后的关键技术
- 19.4 ChatGPT带来的研究问题
- 索引
展开全部
出版方
人民邮电出版社
人民邮电出版社是工业和信息化部主管的大型专业出版社,成立于1953年10月1日。人民邮电出版社坚持“立足信息产业、面向现代社会、传播科学知识、服务科教兴国”,致力于通信、计算机、电子技术、教材、少儿、经管、摄影、集邮、旅游、心理学等领域的专业图书出版。