展开全部

主编推荐语

深度学习是目前最流行的技术领域,本书兼顾了数学上的理解和代码实践,内容主要包括基础知识和深度学习模型。

内容简介

第1章介绍深度学习的简洁发展思路和表示学习机制;

第2章、第3章介绍神经网络的基于梯度的优化方法、神经网络的优化难点以及相应的解决方法;

第4章讨论神经网络遇到的过拟合问题;

第5章分析神经网络的最小组成部分——神经元;

第6章讨论三种方案解决深层网络的训练难题:批标准化、SELU、ResNet;

第7章、第8章讲述了两种重要的神经网络模型:卷积神经网络和循环神经网络;

第9章讨论了对于神经网络的无监督学习方式;

第10章详细讨论以变分自编码器和对抗生成网络为代表的概率生成网络。

本书适合对于深度学习感兴趣的大学生、工程师阅读参考。阅读本书需要具备基础的Python编程技术和基本的数学知识。

目录

  • 版权信息
  • 内容简介
  • 前言
  • 第1章 作为机器学习模型的神经网络
  • 1.1 表示学习
  • 1.2 感知器与神经网络
  • 1.3 使用keras
  • 第2章 神经网络的训练
  • 2.1 基于梯度的一阶优化
  • 2.2 基于梯度的二阶优化
  • 2.3 普通训练方法的局限
  • 2.4 误差反向传播算法的本质
  • 2.5 使用keras
  • 第3章 神经网络的优化难题
  • 3.1 局部极小值,鞍点和非凸优化
  • 3.2 随机梯度下降的优势
  • 3.3 梯度方向优化
  • 3.4 动态调整学习率
  • 3.5 使用keras
  • 第4章 神经网络的过拟合
  • 4.1 参数绑定和提前终止
  • 4.2 数据增强和噪声添加
  • 4.3 Dropout
  • 4.4 使用keras
  • 第5章 神经网络的神经单元
  • 5.1 梯度消失和梯度爆炸
  • 5.2 隐藏单元设计原则和sigmoid的非零中心
  • 5.3 基于线性函数的改进和maxout单元
  • 5.4 使用keras
  • 第6章 神经网络的深度训练
  • 6.1 预处理和批标准化
  • 6.2 批标准化的不同视角:协变量偏差和协调更新
  • 6.3 自归一化神经网络
  • 6.4 ResNet
  • 6.5 使用keras
  • 第7章 卷积神经网络
  • 7.1 局部连接和权重共享
  • 7.2 卷积操作的重要概念
  • 7.3 卷积核的参数学习
  • 7.4 基于感受野的三个卷积技巧
  • 7.5 使用keras
  • 第8章 循环神经网络
  • 8.1 理解循环结构
  • 8.2 循环结构的参数学习
  • 8.3 正交初始化和记忆容量
  • 8.4 理解LSTM
  • 8.5 使用keras
  • 第9章 无监督表示学习:自编码器
  • 9.1 自编码器
  • 9.2 稀疏自编码器
  • 9.3 收缩自编码器
  • 9.4 使用keras
  • 第10章 概率生成模型
  • 10.1 变分自编码器
  • 10.2 生成对抗网络
  • 10.3 使用keras
  • 参考文献
展开全部

评分及书评

评分不足
2个评分

出版方

清华大学出版社

清华大学出版社成立于1980年6月,是由教育部主管、清华大学主办的综合出版单位。植根于“清华”这座久负盛名的高等学府,秉承清华人“自强不息,厚德载物”的人文精神,清华大学出版社在短短二十多年的时间里,迅速成长起来。清华大学出版社始终坚持弘扬科技文化产业、服务科教兴国战略的出版方向,把出版高等学校教学用书和科技图书作为主要任务,并为促进学术交流、繁荣出版事业设立了多项出版基金,逐渐形成了以出版高水平的教材和学术专著为主的鲜明特色,在教育出版领域树立了强势品牌。