互联网
类型
可以朗读
语音朗读
92千字
字数
2021-04-01
发行日期
展开全部
主编推荐语
深度学习是目前最流行的技术领域,本书兼顾了数学上的理解和代码实践,内容主要包括基础知识和深度学习模型。
内容简介
第1章介绍深度学习的简洁发展思路和表示学习机制;
第2章、第3章介绍神经网络的基于梯度的优化方法、神经网络的优化难点以及相应的解决方法;
第4章讨论神经网络遇到的过拟合问题;
第5章分析神经网络的最小组成部分——神经元;
第6章讨论三种方案解决深层网络的训练难题:批标准化、SELU、ResNet;
第7章、第8章讲述了两种重要的神经网络模型:卷积神经网络和循环神经网络;
第9章讨论了对于神经网络的无监督学习方式;
第10章详细讨论以变分自编码器和对抗生成网络为代表的概率生成网络。
本书适合对于深度学习感兴趣的大学生、工程师阅读参考。阅读本书需要具备基础的Python编程技术和基本的数学知识。
目录
- 版权信息
- 内容简介
- 前言
- 第1章 作为机器学习模型的神经网络
- 1.1 表示学习
- 1.2 感知器与神经网络
- 1.3 使用keras
- 第2章 神经网络的训练
- 2.1 基于梯度的一阶优化
- 2.2 基于梯度的二阶优化
- 2.3 普通训练方法的局限
- 2.4 误差反向传播算法的本质
- 2.5 使用keras
- 第3章 神经网络的优化难题
- 3.1 局部极小值,鞍点和非凸优化
- 3.2 随机梯度下降的优势
- 3.3 梯度方向优化
- 3.4 动态调整学习率
- 3.5 使用keras
- 第4章 神经网络的过拟合
- 4.1 参数绑定和提前终止
- 4.2 数据增强和噪声添加
- 4.3 Dropout
- 4.4 使用keras
- 第5章 神经网络的神经单元
- 5.1 梯度消失和梯度爆炸
- 5.2 隐藏单元设计原则和sigmoid的非零中心
- 5.3 基于线性函数的改进和maxout单元
- 5.4 使用keras
- 第6章 神经网络的深度训练
- 6.1 预处理和批标准化
- 6.2 批标准化的不同视角:协变量偏差和协调更新
- 6.3 自归一化神经网络
- 6.4 ResNet
- 6.5 使用keras
- 第7章 卷积神经网络
- 7.1 局部连接和权重共享
- 7.2 卷积操作的重要概念
- 7.3 卷积核的参数学习
- 7.4 基于感受野的三个卷积技巧
- 7.5 使用keras
- 第8章 循环神经网络
- 8.1 理解循环结构
- 8.2 循环结构的参数学习
- 8.3 正交初始化和记忆容量
- 8.4 理解LSTM
- 8.5 使用keras
- 第9章 无监督表示学习:自编码器
- 9.1 自编码器
- 9.2 稀疏自编码器
- 9.3 收缩自编码器
- 9.4 使用keras
- 第10章 概率生成模型
- 10.1 变分自编码器
- 10.2 生成对抗网络
- 10.3 使用keras
- 参考文献
展开全部
出版方
清华大学出版社
清华大学出版社成立于1980年6月,是由教育部主管、清华大学主办的综合出版单位。植根于“清华”这座久负盛名的高等学府,秉承清华人“自强不息,厚德载物”的人文精神,清华大学出版社在短短二十多年的时间里,迅速成长起来。清华大学出版社始终坚持弘扬科技文化产业、服务科教兴国战略的出版方向,把出版高等学校教学用书和科技图书作为主要任务,并为促进学术交流、繁荣出版事业设立了多项出版基金,逐渐形成了以出版高水平的教材和学术专著为主的鲜明特色,在教育出版领域树立了强势品牌。