科技
类型
可以朗读
语音朗读
292千字
字数
2021-05-01
发行日期
展开全部
主编推荐语
从计算机视觉入门人工智能,由数据预处理开始带你玩转深度学习模型。
内容简介
本书以Python数据处理工具和深度学习的基本原理为切入点,由浅入深介绍TensorFlow的使用方法。由原理着手到代码实践,内容从基本的回归问题开始,到近年来大热的卷积神经网络和生成式模型。本书省去大量烦琐的数学推导,以通俗易懂的语言和示例阐述深度学习的原理。
本书共8章,第1和2章介绍TensorFlow的环境搭建与Python基本数据处理工具,为后面介绍TensorFlow做准备;第3~5章讲解TensorFlow和深度学习中的基本概念及深度学习常用数据集;第6~8章从易到难深入讲解不同的神经网络模型并配合大量的示例,进一步巩固TensorFlow代码的使用。
本书配有整套代码,在重点、难点处配有讲解视频,可以根据自身兴趣与需求对代码进行修改并通过视频对难以理解的知识点进行巩固。本书的难度、层次清晰,适合任何希望入门人工智能领域的学生或工作者阅读,同时也包含新的技术,适于想要紧跟视觉研究的从业人员阅读。
目录
- 版权信息
- 内容简介
- 作者简介
- 前言
- 第1章 深度学习简介及TensorFlow环境搭建
- 1.1 什么是深度学习
- 1.2 深度学习语言与工具
- 1.3 TensorFlow的优势
- 1.4 TensorFlow的安装与环境配置
- 1.4.1 Windows下配置GPU版TensorFlow
- 1.4.2 Linux下配置GPU版TensorFlow
- 1.4.3 直接通过Anaconda解决环境依赖
- 1.4.4 安装CPU版本的TensorFlow
- 1.5 小结
- 第2章 常用的Python数据处理工具
- 2.1 Num Py的使用
- 2.1.1 NumPy中的数据类型
- 2.1.2 NumPy中数组的使用
- 2.2 Matplotlib的使用
- 2.2.1 Matplotlib中的相关概念
- 2.2.2 使用Matplotlib绘图
- 2.3 Pandas的使用
- 2.3.1 Pandas中的数据结构
- 2.3.2 使用Pandas读取数据
- 2.3.3 使用Pandas处理数据
- 2.4 SciPy的使用
- 2.4.1 使用SciPy写入mat文件
- 2.4.2 使用SciPy读取mat文件
- 2.5 scikit-learn的使用
- 2.5.1 scikit-learn的使用框架
- 2.5.2 使用scikit-learn进行回归
- 2.5.3 使用scikit-learn进行分类
- 2.6 Pillow的使用
- 2.6.1 使用Pillow读取并显示图像
- 2.6.2 使用Pillow处理图像
- 2.7 OpenCV的使用
- 2.7.1 使用OpenCV读取与显示图像
- 2.7.2 使用OpenCV处理图像
- 2.8 argparse的使用
- 2.8.1 argparse的使用框架
- 2.8.2 使用argparse解析命令行参数
- 2.9 JSON的使用
- 2.9.1 使用JSON写入数据
- 2.9.2 使用JSON读取数据
- 2.10 小结
- 第3章 TensorFlow基础
- 3.1 TensorFlow的基本原理
- 3.2 TensorFlow中的计算图与会话机制
- 3.2.1 计算图
- 3.2.2 会话机制
- 3.3 TensorFlow中的张量表示
- 3.3.1 tf.constant
- 3.3.2 tf.Variable
- 3.3.3 tf.placeholder
- 3.4 TensorFlow中的数据类型
- 3.5 TensorFlow中的命名空间
- 3.5.1 tf.get_variable
- 3.5.2 tf.name_scope
- 3.5.3 tf.variable_scope
- 3.6 TensorFlow中的控制流
- 3.6.1 TensorFlow中的分支结构
- 3.6.2 TensorFlow中的循环结构
- 3.6.3 TensorFlow中指定节点执行顺序
- 3.7 TensorFlow模型的输入与输出
- 3.8 TensorFlow的模型持久化
- 3.8.1 模型的保存
- 3.8.2 模型的读取
- 3.9 使用TensorBoard进行结果可视化
- 3.9.1 计算图的可视化
- 3.9.2 矢量变化的可视化
- 3.9.3 图像的可视化
- 3.10 小结
- 第4章 深度学习的基本概念
- 4.1 深度学习相较于传统方法的优势
- 4.2 深度学习中的激活函数
- 4.2.1 Sigmoid
- 4.2.2 Softmax
- 4.2.3 Tanh
- 4.2.4 ReLU
- 4.2.5 Leaky ReLU
- 4.2.6 PReLU
- 4.2.7 RReLU
- 4.2.8 ReLU-6
- 4.2.9 ELU
- 4.2.10 Swish
- 4.2.11 Mish
- 4.3 深度学习中的损失函数
- 4.3.1 回归任务
- 4.3.2 分类任务
- 4.4 深度学习中的归一化/标准化方法
- 4.4.1 归一化方法
- 4.4.2 标准化方法
- 4.5 深度学习中的优化器
- 4.5.1 不带动量的优化器
- 4.5.2 带动量的优化器
- 4.6 深度学习中的技巧
- 4.6.1 输入数据的处理
- 4.6.2 激活函数的选择
- 4.6.3 损失函数的选择
- 4.6.4 标准化方法的选择
- 4.6.5 batch_size的选择
- 4.6.6 优化器的选择
- 4.6.7 学习率的选择
- 4.7 小结
- 第5章 常用数据集及其使用方式
- 5.1 IRIS鸢尾花数据集
- 5.2 MNIST手写数字数据集
- 5.3 SVHN数据集
- 5.4 CIFAR-10与CIFAR-100数据集
- 5.4.1 CIFAR-10
- 5.4.2 CIFAR-100
- 5.4.3 对图像进行数据增强
- 5.5 Oxford Flower数据集
- 5.6 ImageNet数据集
- 5.7 小结
- 第6章 全连接神经网络
- 6.1 什么是全连接神经网络
- 6.1.1 感知机
- 6.1.2 全连接神经网络
- 6.2 使用全连接神经网络进行回归
- 6.3 使用全连接神经网络进行分类
- 6.4 使用全连接神经网络对数据降维
- 6.5 使用全连接神经网络完成手写数字识别
- 6.5.1 训练模型
- 6.5.2 保存权重
- 6.5.3 交互接收用户输入
- 6.5.4 加载权重并预测
- 6.6 小结
- 第7章 卷积神经网络
- 7.1 什么是卷积
- 7.1.1 卷积的概念
- 7.1.2 卷积操作的参数
- 7.1.3 卷积的计算方式
- 7.2 卷积神经网络中常用的层
- 7.2.1 输入层
- 7.2.2 卷积层
- 7.2.3 激活层
- 7.2.4 标准化层
- 7.2.5 池化层
- 7.2.6 全连接层
- 7.3 常用的卷积神经网络结构
- 7.3.1 VGGNet
- 7.3.2 Inception
- 7.3.3 ResNet
- 7.3.4 DenseNet
- 7.3.5 ResNeXt
- 7.3.6 MobileNet
- 7.3.7 Dual Path Network
- 7.3.8 SENet
- 7.3.9 SKNet
- 7.3.10 ResNeSt
- 7.4 使用卷积神经网络完成图像分类
- 7.4.1 定义命令行参数
- 7.4.2 模型训练函数
- 7.4.3 模型测试函数
- 7.4.4 主函数
- 7.4.5 训练模型识别手写数字
- 7.4.6 训练模型识别自然场景图像
- 7.5 卷积神经网络究竟学到了什么
- 7.5.1 卷积核的可视化
- 7.5.2 类激活映射的可视化
- 7.5.3 卷积神经网络输出预测值的可视化
- 7.6 使用卷积神经网络给全连接神经网络传授知识
- 7.7 转置卷积层
- 7.7.1 什么是转置卷积层
- 7.7.2 使用转置卷积层让图像变得清晰
- 7.7.3 使用转置卷积层给图像上色
- 7.8 使用卷积层与反卷积层做自编码器
- 7.9 小结
- 第8章 生成式模型
- 8.1 什么是生成式模型
- 8.2 变分自编码器
- 8.2.1 什么是变分自编码器
- 8.2.2 使用变分自编码器生成手写数字
- 8.2.3 使用变分自编码器生成指定的数字
- 8.3 生成式对抗网络
- 8.3.1 什么是生成式对抗网络
- 8.3.2 使用生成式对抗网络生成手写数字
- 8.3.3 使用生成式对抗网络生成指定的数字
- 8.3.4 使用生成式对抗网络生成自然图像
- 8.3.5 使用生成式对抗网络进行图像域转换
- 8.4 小结
展开全部
出版方
清华大学出版社
清华大学出版社成立于1980年6月,是由教育部主管、清华大学主办的综合出版单位。植根于“清华”这座久负盛名的高等学府,秉承清华人“自强不息,厚德载物”的人文精神,清华大学出版社在短短二十多年的时间里,迅速成长起来。清华大学出版社始终坚持弘扬科技文化产业、服务科教兴国战略的出版方向,把出版高等学校教学用书和科技图书作为主要任务,并为促进学术交流、繁荣出版事业设立了多项出版基金,逐渐形成了以出版高水平的教材和学术专著为主的鲜明特色,在教育出版领域树立了强势品牌。