人工智能
类型
可以朗读
语音朗读
333千字
字数
2021-09-01
发行日期
展开全部
主编推荐语
零基础入门并迅速成为实战高手。
内容简介
这是一本理论与实践兼顾的深度学习著作,它通过精心的内容组织和丰富的案例讲解,帮助读者零基础入门,并迅速晋级为有一定理论基础和项目实战能力的高手。
基础方面,不仅介绍了Keras等各种深度学习框架的使用和开发环境的搭建,还对深度学习的基础知识做了讲解;
理论方面,详细讲解了全连接神经网络、卷积神经网络、循环神经网络、自编码器和生成式对抗网络等核心神经网络的原理和应用;
应用层面,不仅讲解了如何用Keras开发各种深度学习模型,还讲解了深度学习在图像处理和文本处理两大核心场景的应用;
实战方面,每个深度学习模型原理的背后都有精心设计的Keras实现代码,每章都有多个综合性案例,读者可以在调试和执行代码的过程中掌握深度学习模型设计与开发的各种方法和技巧。
本书内容结构合理,重点突出;写作方式循序渐进,易于读者理解;行文风格幽默风趣,读起来不枯燥。
目录
- 版权信息
- 内容介绍
- 作者简介
- 推荐语
- 前言
- 第1章 准备深度学习的环境
- 1.1 机器学习与深度学习
- 1.2 主流深度学习框架介绍
- 1.2.1 TensorFlow
- 1.2.2 Keras
- 1.2.3 Caffe
- 1.2.4 PyTorch
- 1.2.5 Theano
- 1.2.6 CNTK
- 1.2.7 MXNet
- 1.2.8 ONNX
- 1.3 配置深度学习的软件环境
- 1.3.1 安装Anaconda
- 1.3.2 在Anaconda中安装TensorFlow
- 1.3.3 在Anaconda中安装Keras
- 1.3.4 安装R和RStudio
- 1.3.5 在RStudio中安装TensorFlow
- 1.3.6 在RStudio中安装Keras
- 1.4 Keras构建深度学习模型
- 1.4.1 MNIST数据集
- 1.4.2 数据预处理
- 1.4.3 模型建立及训练
- 1.4.4 模型评估及预测
- 1.5 本章小结
- 第2章 深度学习简介
- 2.1 神经网络基础
- 2.1.1 神经元
- 2.1.2 激活函数
- 2.1.3 神经网络的拓扑结构
- 2.1.4 神经网络的主要类型
- 2.1.5 损失函数
- 2.2 优化网络的方法
- 2.2.1 梯度下降算法
- 2.2.2 自适应学习率算法
- 2.3 防止模型过拟合
- 2.3.1 过拟合与欠拟合
- 2.3.2 正则化的方法
- 2.3.3 数据拆分
- 2.3.4 Dropout
- 2.4 综合实例:电信流失用户预测
- 2.4.1 数据预处理
- 2.4.2 选择优化器
- 2.4.3 增加内部隐藏层神经元数量
- 2.4.4 采用正则化避免过拟合
- 2.5 本章小结
- 第3章 如何用Keras开发深度学习模型
- 3.1 Keras模型的生命周期
- 3.1.1 数据预处理
- 3.1.2 定义网络
- 3.1.3 编译网络
- 3.1.4 训练网络
- 3.1.5 评估网络
- 3.1.6 做出预测
- 3.2 Keras模型
- 3.2.1 序贯模型
- 3.2.2 使用函数式API创建的模型
- 3.3 模型可视化
- 3.3.1 网络拓扑可视化
- 3.3.2 模型训练可视化
- 3.3.3 TensorBoard可视化
- 3.4 Keras中的回调函数
- 3.4.1 回调函数介绍
- 3.3.2 使用回调函数寻找最优模型
- 3.5 模型保存及序列化
- 3.5.1 使用HDF5格式保存模型
- 3.5.2 使用JSON格式保存模型
- 3.5.3 使用YAML格式保存模型
- 3.6 本章小结
- 第4章 深度学习的图像数据预处理
- 4.1 图像处理EBImage包
- 4.1.1 图像读取与保存
- 4.1.2 图像对象和矩阵
- 4.1.3 色彩管理
- 4.1.4 图像处理
- 4.1.5 空间变换
- 4.1.6 图像滤波
- 4.1.7 形态运算
- 4.1.8 图像分割
- 4.2 利用Keras进行图像预处理
- 4.2.1 图像读取与保存
- 4.2.2 图像生成器image_data_generator
- 4.2.3 image_data_generator实例
- 4.3 综合实例:对彩色花图像进行分类
- 4.3.1 图像数据读取及探索
- 4.3.2 MLP模型建立及预测
- 4.3.3 CNN模型建立与预测
- 4.3.4 利用数据增强改善CNN模型
- 4.4 本章小结
- 第5章 全连接神经网络的经典实例
- 5.1 回归问题实例:波士顿房价预测
- 5.1.1 波士顿房价数据描述
- 5.1.2 波士顿房价数据预处理
- 5.1.3 波士顿房价预测
- 5.2 多分类实例:鸢尾花分类
- 5.2.1 鸢尾花数据描述
- 5.2.2 鸢尾花数据预处理
- 5.2.3 鸢尾花分类建模
- 5.3 二分类实例:印第安人糖尿病诊断
- 5.3.1 印第安人糖尿病数据描述
- 5.3.2 印第安人糖尿病数据预处理
- 5.3.3 印第安人糖尿病诊断建模
- 5.4 二分类实例:泰坦尼克号上旅客生存预测
- 5.4.1 泰坦尼克号的旅客数据描述
- 5.4.2 泰坦尼克号的旅客数据预处理
- 5.4.3 生存预测建模
- 5.5 多分类实例:彩色手写数字图像识别
- 5.5.1 彩色手写数字图像数据描述
- 5.5.2 彩色手写数字图像数据预处理
- 5.5.3 彩色手写数字图像数据建模
- 5.6 本章小结
- 第6章 卷积神经网络及图像分类
- 6.1 卷积神经网络原理
- 6.1.1 卷积层
- 6.1.2 卷积层的Keras实现
- 6.1.3 池化层
- 6.1.4 池化层的Keras实现
- 6.1.5 全连接层
- 6.2 多分类实例:小数据集的图像识别
- 6.2.1 导入本地图像数据
- 6.2.2 图像数据预处理
- 6.2.3 建立全连接神经网络模型识别小数据集图像
- 6.2.4 建立简单卷积神经网络识别小数据集图像
- 6.2.5 建立复杂卷积神经网络识别小数据集图像
- 6.3 多分类实例:彩色手写数字图像识别
- 6.3.1 导入及处理本地手写数字图像
- 6.3.2 MNIST数据预处理
- 6.3.3 构建简单卷积神经网络识别彩色手写数字
- 6.3.4 构建复杂卷积神经网络识别彩色手写数字
- 6.4 多分类实例:CIFAR-10图像识别
- 6.4.1 CIFAR-10数据描述
- 6.4.2 加载CIFAR-10数据
- 6.4.3 CIFAR-10数据预处理
- 6.4.4 构建简单卷积神经网络识别CIFAR-10图像
- 6.4.5 构建复杂卷积神经网络识别CIFAR-10图像
- 6.5 本章小结
- 第7章 循环神经网络
- 7.1 简单循环网络
- 7.1.1 简单循环网络基本原理
- 7.1.2 简单循环网络的Keras实现
- 7.1.3 多分类实例:SimpleRNN实现手写数字识别
- 7.1.4 回归问题实例:SimpleRNN预测纽约出生人口数量
- 7.2 长短期记忆网络(LSTM)
- 7.2.1 LSTM基本原理
- 7.2.2 LSTM的Keras实现
- 7.2.3 回归问题实例:LSTM预测股价
- 7.3 门控循环单元(GRU)
- 7.3.1 GRU基本原理
- 7.3.2 GRU的Keras实现
- 7.3.3 回归问题实例:基于GRU网络的温度预测
- 7.4 本章小结
- 第8章 自编码器
- 8.1 自编码器介绍
- 8.1.1 自编码器的基本结构
- 8.1.2 使用Keras建立简单自编码器
- 8.1.3 稀疏自编码器
- 8.1.4 降噪自编码器
- 8.1.5 栈式自编码器
- 8.2 实例:使用自编码器预测信用风险
- 8.2.1 数据理解
- 8.2.2 数据预处理
- 8.2.3 构建自编码器
- 8.2.4 模型训练
- 8.2.5 模型预测
- 8.3 实例:使用自编码器建立推荐系统
- 8.3.1 数据理解
- 8.3.2 数据预处理
- 8.3.3 构建自编码器
- 8.3.4 模型训练
- 8.3.5 模型预测
- 8.4 本章小结
- 第9章 生成式对抗网络
- 9.1 生成式对抗网络简介
- 9.2 实例:使用GAN生成手写数字
- 9.2.1 数据准备
- 9.2.2 构建生成器
- 9.2.3 构建判别器
- 9.2.4 生成GAN模型
- 9.2.5 训练GAN模型
- 9.3 实例:深度卷积生成式对抗网络
- 9.3.1 构建生成器
- 9.3.2 构建判别器
- 9.3.3 编译模型
- 9.3.4 训练DCGAN模型
- 9.4 本章小结
- 第10章 使用R语言进行文本挖掘
- 10.1 文本挖掘流程
- 10.2 相关R包简介及安装
- 10.2.1 tm包简介及安装
- 10.2.2 tmcn包简介及安装
- 10.2.3 Rwordseg包简介及安装
- 10.2.4 jiebaR包简介及安装
- 10.2.5 tidytext包简介及安装
- 10.3 tm包快速上手
- 10.3.1 数据读写
- 10.3.2 语料库转换
- 10.3.3 语料库过滤
- 10.3.4 元数据管理
- 10.3.5 词条-文档关系矩阵
- 10.4 tmcn包快速上手
- 10.4.1 中文语料资源
- 10.4.2 中文编码转换
- 10.4.3 字符操作
- 10.5 Rwordseg包快速上手
- 10.5.1 中文分词
- 10.5.2 添加和卸载自定义词典
- 10.6 jiebaR包快速上手
- 10.6.1 分词引擎
- 10.6.2 自定义词典
- 10.6.3 停止词过滤
- 10.6.4 关键词提取
- 10.7 tidytext包快速上手
- 10.7.1 整洁文本格式
- 10.7.2 使用tidy处理中国四大名著
- 10.7.3 对中国四大名著进行词频统计
- 10.7.4 非整洁格式转换
- 10.8 本章小结
- 第11章 如何使用Keras处理文本数据
- 11.1 使用text_to_word_sequence分词
- 11.2 使用独热编码
- 11.3 分词器Tokenizer
- 11.4 使用pad_sequences填充文本序列
- 11.5 词嵌入
- 11.5.1 学习词嵌入
- 11.5.2 实例:学习词嵌入
- 11.5.3 预训练词嵌入
- 11.5.4 实例:预训练GloVe嵌入
- 11.6 本章小结
- 第12章 情感分析实例:IMDB影评情感分析
- 12.1 IMDB数据集
- 12.1.1 加载IMDB数据集
- 12.1.2 查看IMDB数据集
- 12.2 利用机器学习进行情感分析
- 12.2.1 数据预处理
- 12.2.2 机器学习预测情感
- 12.3 利用深度学习进行情感分析
- 12.3.1 数据预处理
- 12.3.2 多层感知器模型
- 12.3.3 卷积神经网络模型
- 12.3.4 RNN模型
- 12.3.5 LSTM模型
- 12.3.6 GRU模型
- 12.4 本章小结
- 第13章 中文文本分类实例:新浪新闻分类实例
- 13.1 SPORT数据集
- 13.2 利用机器学习进行文本分类
- 13.2.1 数据预处理
- 13.2.2 数据分区
- 13.2.3 机器学习建模
- 13.3 利用深度学习进行文本分类
- 13.3.1 数据预处理
- 13.3.2 多层感知器模型
- 13.3.3 一维卷积神经网络模型
- 13.3.4 RNN模型
- 13.3.5 LSTM模型
- 13.3.6 GRU模型
- 13.3.7 双向LSTM模型
- 13.3.8 比较深度学习模型的预测效果
- 13.4 本章小结
- 第14章 通过预训练模型实现迁移学习
- 14.1 迁移学习概述
- 14.2 Keras预训练模型概述
- 14.3 VGGNet卷积网络模型
- 14.3.1 VGGNet概述
- 14.3.2 加载预训练VGG16网络
- 14.3.3 预测单张图像内容
- 14.3.4 预测多张图像内容
- 14.3.5 提取预训练网络输出特征实现花卉图像分类器
- 14.4 ResNet卷积网络模型
- 14.4.1 ResNet概述
- 14.4.2 ResNet50的Keras实现
- 14.5 本章小结
展开全部
出版方
机械工业出版社有限公司
机械工业出版社是全国优秀出版社,自1952年成立以来,坚持为科技、为教育服务,以向行业、向学校提供优质、权威的精神产品为宗旨,以“服务社会和人民群众需求,传播社会主义先进文化”为己任,产业结构不断完善,已由传统的图书出版向着图书、期刊、电子出版物、音像制品、电子商务一体化延伸,现已发展为多领域、多学科的大型综合性出版社,涉及机械、电工电子、汽车、计算机、经济管理、建筑、ELT、科普以及教材、教辅等领域。