人工智能
类型
可以朗读
语音朗读
380千字
字数
2019-06-01
发行日期
展开全部
主编推荐语
深度学习入门、主流平台TensorFlow、情感识别、肺癌检测、多领域应用
内容简介
本书面向渴望了解和掌握深度学习、但又缺乏相关背景知识的读者。本书的主要内容包括:了解数据科学、它的挑战以及如何解决;熟悉深度学习的主流平台和框架TensorFlow;利用CNN研究情感识别,通过早期肺癌的检测深入研究成像问题;应用深度学习到其他领域,如语言建模,聊天机器人和机器翻译等。
目录
- 版权信息
- 版权
- 版权声明
- 内容提要
- 作者简介
- 技术审稿人简介
- 译者序
- 前言
- 资源与支持
- 第1章 数据科学——鸟瞰全景
- 1.1 通过示例了解数据科学
- 1.2 设计数据科学算法的流程
- 1.2.1 数据预处理
- 1.2.2 特征选择
- 1.2.3 模型选择
- 1.2.4 学习过程
- 1.2.5 评估模型
- 1.3 开始学习
- 学习的挑战
- 1.4 实现鱼类识别/检测模型
- 1.4.1 知识库/数据集
- 1.4.2 数据分析预处理
- 1.4.3 搭建模型
- 1.5 不同学习类型
- 1.5.1 监督学习
- 1.5.2 无监督学习
- 1.5.3 半监督学习
- 1.5.4 强化学习
- 1.6 数据量和行业需求
- 1.7 总结
- 第2章 数据建模实战——“泰坦尼克号”示例
- 2.1 线性回归模型
- 2.1.1 原因
- 2.1.2 广告——一个财务方面的例子
- 2.2 线性分类模型
- 分类与逻辑回归
- 2.3 “泰坦尼克号”示例——建立和训练模型
- 2.3.1 数据处理和可视化
- 2.3.2 数据分析——监督机器学习
- 2.4 不同类型的误差解析
- 2.5 表现(训练集)误差
- 2.6 泛化/真实误差
- 2.7 总结
- 第3章 特征工程与模型复杂性——重温“泰坦尼克号”示例
- 3.1 特征工程
- 3.1.1 特征工程的类型
- 3.1.2 重温“泰坦尼克号”示例
- 3.2 维度灾难
- 避免维度灾难
- 3.3 重温“泰坦尼克号”示例——融会贯通
- 3.4 偏差-方差分解
- 3.5 学习可见性[2]
- 打破经验法则
- 3.6 总结
- 第4章 TensorFlow入门实战
- 4.1 安装TensorFlow
- 4.1.1 在Ubuntu 16.04系统上安装GPU版的TensorFlow
- 4.1.2 在Ubuntu 16.04系统上安装CPU版的TensorFlow
- 4.1.3 在Mac OS X上安装CPU版的TensorFlow
- 4.1.4 在Windows系统上安装CPU/GPU版的TensorFlow
- 4.2 TensorFlow运行环境
- 4.3 计算图
- 4.4 TensorFlow中的数据类型、变量、占位符
- 4.4.1 变量
- 4.4.2 占位符
- 4.4.3 数学运算
- 4.5 获取TensorFlow的输出
- 4.6 TensorBoard——可视化学习过程
- 4.7 总结
- 第5章 TensorFlow基础示例实战
- 5.1 神经元的结构
- 生物学中的激活和连接
- 5.2 激活函数
- 5.2.1 sigmoid
- 5.2.2 tanh
- 5.2.3 ReLU
- 5.3 前馈神经网络
- 5.4 需要多层网络的原因
- 5.4.1 训练MLP——反向传播算法
- 5.4.2 前馈传播
- 5.4.3 反向传播和权值更新
- 5.5 TensorFlow术语回顾
- 5.5.1 使用Tensorflow定义多维数组
- 5.5.2 为什么使用张量
- 5.5.3 变量
- 5.5.4 占位符
- 5.5.5 操作
- 5.6 构建与训练线性回归模型
- 使用Tensorflow实现线性回归
- 5.7 构建与训练逻辑回归模型
- 在TensorFlow中使用逻辑回归
- 5.8 总结
- 第6章 深度前馈神经网络——实现数字分类
- 6.1 隐藏单元与架构设计
- 6.2 MNIST数据集分析
- MNIST数据
- 6.3 数字分类——构建与训练模型
- 6.3.1 分析数据
- 6.3.2 构建模型
- 6.3.3 训练模型
- 6.4 总结
- 第7章 卷积神经网络
- 7.1 卷积运算
- 7.2 动机
- CNN的应用
- 7.3 CNN的不同层
- 7.3.1 输入层
- 7.3.2 卷积步骤
- 7.3.3 引入非线性
- 7.3.4 池化步骤
- 7.3.5 全连接层
- 7.4 CNN基础示例——MNIST手写数字分类
- 7.4.1 构建模型
- 7.4.2 训练模型
- 7.5 总结
- 第8章 目标检测——CIFAR-10示例
- 8.1 目标检测
- 8.2 CIFAR-10目标图像检测——构建与训练模型
- 8.2.1 使用软件包
- 8.2.2 加载CIFAR-10数据集
- 8.2.3 数据分析与预处理
- 8.2.4 建立网络
- 8.2.5 训练模型
- 8.2.6 测试模型
- 8.3 总结
- 第9章 目标检测——CNN迁移学习
- 9.1 迁移学习
- 9.1.1 迁移学习背后的直觉
- 9.1.2 传统机器学习与迁移学习之间的不同
- 9.2 CIFAR-10目标检测——回顾
- 9.2.1 解决方案大纲
- 9.2.2 加载和探索CIFAR-10数据集
- 9.2.3 inception模型迁移值
- 9.2.4 迁移值分析
- 9.2.5 模型构建与训练
- 9.3 总结
- 第10章 循环神经网络——语言模型
- 10.1 RNN的直观解释
- 10.1.1 RNN的架构
- 10.1.2 RNN的示例
- 10.1.3 梯度消失问题
- 10.1.4 长期依赖问题
- 10.2 LSTM网络
- 为什么LSTM网络有效
- 10.3 语言模型的实现
- 10.3.1 生成训练的最小批
- 10.3.2 构建模型
- 10.3.3 训练模型
- 10.4 总结
- 第11章 表示学习——实现词嵌入
- 11.1 表示学习简介
- 11.2 Word2Vec
- 构建Word2Vec模型
- 11.3 skip-gram架构的一个实际例子
- 11.4 实现skip-gram Word2Vec
- 11.4.1 数据分析与预处理
- 11.4.2 构建模型
- 11.4.3 训练模型
- 11.5 总结
- 第12章 神经网络在情感分析中的应用
- 12.1 常用的情感分析模型
- 12.1.1 RNN——情感分析背景
- 12.1.2 梯度爆炸与梯度消失——回顾
- 12.2 情感分析——模型实现
- 12.2.1 Keras
- 12.2.2 数据分析与预处理
- 12.2.3 构建模型
- 12.2.4 模型训练和结果分析
- 12.3 总结
- 第13章 自动编码器——特征提取和降噪
- 13.1 自动编码器简介
- 13.2 自动编码器的示例
- 13.3 自动编码器架构
- 13.4 压缩MNIST数据集
- 13.4.1 MNIST数据集
- 13.4.2 构建模型
- 13.4.3 训练模型
- 13.5 卷积自动编码器
- 13.5.1 数据集
- 13.5.2 构建模型
- 13.5.3 训练模型
- 13.6 降噪自动编码器
- 13.6.1 构建模型
- 13.6.2 训练模型
- 13.7 自动编码器的应用
- 13.7.1 图像着色
- 13.7.2 更多的应用
- 13.8 总结
- 第14章 生成对抗网络
- 14.1 直观介绍
- 14.2 GAN的简单实现
- 14.2.1 模型输入
- 14.2.2 变量作用域
- 14.2.3 Leaky ReLU
- 14.2.4 生成器
- 14.2.5 判别器
- 14.2.6 构建GAN网络
- 14.2.7 训练模型
- 14.2.8 从生成器中采样
- 14.3 总结
- 第15章 面部生成与标签缺失处理
- 15.1 面部生成
- 15.1.1 获取数据
- 15.1.2 探讨数据集
- 15.1.3 构建模型
- 15.2 用生成对抗网络进行半监督学习
- 15.2.1 直观解释
- 15.2.2 数据分析与预处理
- 15.2.3 构建模型
- 15.3 总结
- 附录A 实现鱼类识别
- 鱼类识别部分的代码
展开全部
出版方
人民邮电出版社
人民邮电出版社是工业和信息化部主管的大型专业出版社,成立于1953年10月1日。人民邮电出版社坚持“立足信息产业、面向现代社会、传播科学知识、服务科教兴国”,致力于通信、计算机、电子技术、教材、少儿、经管、摄影、集邮、旅游、心理学等领域的专业图书出版。