计算机
类型
可以朗读
语音朗读
199千字
字数
2020-05-01
发行日期
展开全部
主编推荐语
《深度学习与TensorFlow应用实践》22章讲解:类库安装使用、数据结构、数据集、人工神经网络等多方面知识。
内容简介
本书内容分为22章,包括Python类库的安装和使用、TensorFlow基本数据结构和使用、TensorFlow数据集的创建与读取、人工神经网络介绍、反馈神经网络的理论基础,深度学习模型的创建以及相关特性介绍等内容,并在本书各个模型部分特别介绍了模型调参的初步知识。本书强调理论联系实际,着重介绍了TensorFlow编程解决图像识别的应用,提供了大量数据集供读者使用,也以代码的形式实现了深度学习模型实供读者参考。
目录
- 封面页
- 书名页
- 版权页
- 作者简介
- 内容简介
- 推荐序
- 再版自序——新的起点
- 前言
- 目录
- 第1章 星星之火
- 1.1 计算机视觉与深度学习
- 1.1.1 人类视觉神经的启迪
- 1.1.2 计算机视觉的难点与人工神经网络
- 1.1.3 应用深度学习解决计算机视觉问题
- 1.2 计算机视觉学习的基础与研究方向
- 1.2.1 学习计算机视觉结构图
- 1.2.2 计算机视觉的学习方式和未来趋势
- 1.3 本章小结
- 第2章 Python的安装与使用
- 2.1 Python基本安装和用法
- 2.1.1 Anaconda的下载与安装
- 2.1.2 Python编译器PyCharm的安装
- 2.1.3 使用Python计算softmax函数
- 2.2 Python常用类库threading
- 2.2.1 threading库的使用
- 2.2.2 threading模块中最重要的Thread类
- 2.2.3 threading中Lock类
- 2.2.4 threading中join类
- 2.3 本章小结
- 第3章 深度学习的理论基础——机器学习
- 3.1 机器学习基本分类
- 3.1.1 应用学科的分类
- 3.1.2 学习模式的分类
- 3.1.3 应用领域的分类
- 3.2 机器学习基本算法
- 3.2.1 机器学习的算法流程
- 3.2.2 基本算法的分类
- 3.3 算法的理论基础
- 3.3.1 小学生的故事——求圆的面积
- 3.3.2 机器学习基础理论——函数逼近
- 3.4 回归算法
- 3.4.1 函数逼近经典算法——线性回归算法
- 3.4.2 线性回归的姐妹——逻辑回归
- 3.5 本章小结
- 第4章 Python类库的使用——数据处理及可视化展示
- 4.1 从小例子起步——NumPy的初步使用
- 4.1.1 数据的矩阵化
- 4.1.2 数据分析
- 4.1.3 基于统计分析的数据处理
- 4.2 图形化数据处理——Matplotlib包使用
- 4.2.1 差异的可视化
- 4.2.2 坐标图的展示
- 4.2.3 玩个大的
- 4.3 深度学习理论方法——相似度计算
- 4.3.1 基于欧几里得距离的相似度计算
- 4.3.2 基于余弦角度的相似度计算
- 4.3.3 欧几里得相似度与余弦相似度的比较
- 4.4 数据的统计学可视化展示
- 4.4.1 数据的四分位
- 4.4.2 数据的四分位示例
- 4.4.3 数据的标准化
- 4.4.4 数据的平行化处理
- 4.4.5 热点图-属性相关性检测
- 4.5 Python实战——某地降雨的关系处理
- 4.5.1 不同年份的相同月份统计
- 4.5.2 不同月份之间的增减程度比较
- 4.5.3 每月降雨不相关吗
- 4.6 本章小结
- 第5章 OpenCV的基础使用
- 5.1 OpenCV基本的图片读取
- 5.1.1 基本的图片存储格式
- 5.1.2 图像的读取与存储
- 5.1.3 图像的转换
- 5.1.4 使用NumPy模块对图像进行编辑
- 5.2 OpenCV的卷积核处理
- 5.2.1 计算机视觉的三种不同色彩空间
- 5.2.2 卷积核与图像特征提取
- 5.2.3 卷积核进阶
- 5.3 本章小结
- 第6章 OpenCV与TensorFlow的融合
- 6.1 图片的自由缩放以及边缘裁剪
- 6.1.1 图像的扩缩裁挖
- 6.1.2 图像色调的调整
- 6.1.3 图像的旋转、平移和翻转
- 6.2 使用OpenCV扩大图像数据库
- 6.2.1 图像的随机裁剪
- 6.2.2 图像的随机旋转变换
- 6.2.3 图像色彩的随机变换
- 6.2.4 对鼠标的监控
- 6.3 本章小结
- 第7章 Let’s play TensorFlow
- 7.1 TensorFlow游乐场
- 7.1.1 I want to play a game
- 7.1.2 TensorFlow游乐场背后的故事
- 7.1.3 如何训练神经网络
- 7.2 Hello TensorFlow
- 7.2.1 TensorFlow名称的解释
- 7.2.2 TensorFlow基本概念
- 7.3 本章小结
- 第8章 Hello TensorFlow,从0到1
- 8.1 TensorFlow的安装
- 8.2.1 检测Anaconda中的TensorFlow版本
- 8.2.2 TensorFlow 2.0 GPU版本基础显卡推荐和前置软件安装
- 8.2.3 第一个Hello TensorFlow小程序
- 8.2 TensorFlow常量、变量和数据类型
- 8.3 TensorFlow矩阵计算
- 8.4 Hello TensorFlow
- 8.5 本章小结
- 第9章 TensorFlow重要算法基础
- 9.1 BP神经网络简介
- 9.2 BP神经网络两个基础算法详解
- 9.2.1 最小二乘法(LS算法)详解
- 9.2.2 道士下山的故事——梯度下降算法
- 9.3 反馈神经网络反向传播算法介绍
- 9.3.1 深度学习基础
- 9.3.2 链式求导法则
- 9.3.3 反馈神经网络原理与公式推导
- 9.3.4 反馈神经网络原理的激活函数
- 9.3.5 反馈神经网络原理的Python实现
- 9.4 本章小结
- 第10章 Hello TensorFlow & Keras
- 10.1 MODEL!MODEL!还是MODEL
- 10.2 使用Keras API实现鸢尾花分类的例子(顺序模式)
- 10.2.1 数据的准备
- 10.2.2 数据的处理
- 10.2.3 梯度更新函数的写法
- 10.3 使用Keras函数式编程实现鸢尾花分类的例子(重点)
- 10.4 使用保存的Keras模式对模型进行复用
- 10.5 使用TensorFlow 2.0标准化编译对Iris模型进行拟合
- 10.6 多输入单输出TensorFlow 2.0编译方法(选学)
- 10.7 多输入多输出TensorFlow 2.0编译方法(选学)
- 10.8 全连接层详解
- 10.8.1 全连接层的定义与实现
- 10.8.2 使用TensorFlow 2.0自带的API实现全连接层
- 10.8.3 打印显示TensorFlow 2.0设计的Model结构和参数
- 10.9 本章小结
- 第11章 卷积层详解与MNIST实战
- 11.1 卷积运算基本概念
- 11.1.1 卷积运算
- 11.1.2 TensorFlow 2.0中卷积函数实现详解
- 11.1.3 池化运算
- 11.1.4 softmax激活函数
- 11.1.5 卷积神经网络原理
- 11.2 TensorFlow 2.0编程实战:MNIST手写体识别
- 11.2.1 MNIST数据集
- 11.2.2 MNIST数据集特征和标签介绍
- 11.2.3 TensorFlow 2.0编程实战MNIST数据集
- 11.2.4 使用自定义的卷积层实现MNIST识别
- 11.3 本章小结
- 第12章 卷积神经网络公式推导与应用
- 12.1 反馈神经网络算法
- 12.1.1 经典反馈神经网络正向与反向传播公式推导
- 12.1.2 卷积神经网络正向与反向传播公式推导
- 12.2 使用卷积神经网络分辨CIFAR-10数据集
- 12.2.1 CIFAR-10数据集下载与介绍
- 12.2.2 CIFAR-10模型的构建与数据处理
- 12.2.3 CIFAR-10模型的细节描述与参数重构
- 12.3 本章小结
- 第13章 TensorFlow Datasets和TensorBoard详解
- 13.1 TensorFlow Datasets简介
- 13.2 Datasets数据集的基本使用
- 13.3 Datasets数据集的使用——Fashion-MNIST
- 13.3.1 Fashion-MNIST数据集下载与展示
- 13.3.2 模型的建立与训练
- 13.4 使用Keras对Fashion-MNIST数据集进行处理
- 13.5 使用TensorBoard可视化训练过程
- 13.5.1 TensorBoard文件夹的设置
- 13.5.2 TensorBoard的显式调用
- 13.5.3 TensorBoard的使用
- 13.6 本章小结
- 第14章 从冠军开始:ResNet
- 14.1 ResNet基础原理与程序设计基础
- 14.1.1 ResNet诞生的背景
- 14.1.2 模块工具的TensorFlow实现——不要重复造轮子
- 14.1.3 TensorFlow高级模块layers用法简介
- 14.2 ResNet实战CIFAR-100数据集分类
- 14.2.1 CIFAR-100数据集简介
- 14.2.2 ResNet残差模块的实现
- 14.2.3 ResNet网络的实现
- 14.2.4 使用ResNet对CIFAR-100进行分类
- 14.3 ResNet的兄弟——ResNeXt
- 14.3.1 ResNeXt诞生的背景
- 14.3.2 ResNeXt残差模块的实现
- 14.3.3 ResNeXt网络的实现
- 14.3.4 ResNeXt和ResNet的比较
- 14.4 本章小结
- 第15章 Attention is all we need
- 15.1 简单的理解注意力机制
- 15.1.1 何为注意力
- 15.1.2 hard or soft——注意力机制的两种常见形式
- 15.1.3 Spatial and Channel——注意力机制的两种实现形式
- 15.2 SENet or CBAM注意力机制的经典模型
- 15.2.1 最后的冠军——SENet
- 15.2.2 结合了Spatial and Channel的CBAM模型
- 15.2.3 注意力的前沿研究——基于细粒度的图像注意力机制
- 15.3 本章小结
- 第16章 开始找工作吧——深度学习常用面试问题答疑
- 16.1 深度学习面试常用问题答疑
- 16.1.1 如何降低过拟合(Overfitting)
- 16.1.2 全连接层详解
- 16.1.3 激活函数起作用的原因
- 16.1.4 卷积后的图像大小
- 16.1.5 池化层的作用
- 16.1.6 为什么在最后分类时使用softmax而不是传统的SVM
- 16.2 卷积神经网络调优面试问答汇总
- 16.2.1 数据集的注意事项
- 16.2.2 卷积模型训练的注意事项
- 16.3 NIN模型介绍
- 16.3.1 NIN(Network In Network)模型简介
- 16.3.2 猫狗大战——NIN的代码实现
- 16.4 deeper is better——GoogLeNet模型介绍
- 16.4.1 GoogLeNet模型的介绍
- 16.4.2 GoogLeNet模型单元的TensorFlow实现
- 16.4.3 GoogLeNet模型一些注意事项
- 16.5 本章小结
- 第17章 不服就是GAN——对抗生成网络
- 17.1 一个悲惨的故事
- 17.2 GAN基本原理简介
- 17.3 GAN实战——手写体数字的生成
- 17.3.1 MNIST数据集和GAN模型实现
- 17.3.2 训练参数的定义和实现
- 17.4 本章小结
- 第18章 未来的趋势——图卷积神经网络初步
- 18.1 图卷积神经网络的诞生背景
- 18.1.1 图卷积基本原理介绍
- 18.1.2 图卷积基本原理和公式介绍
- 18.1.3 图卷积需要的基本概念
- 18.2 实战图卷积神经网络
- 18.2.1 cora数据集简介
- 18.2.2 图卷积模型的建立
- 18.3 本章小结
展开全部
出版方
清华大学出版社
清华大学出版社成立于1980年6月,是由教育部主管、清华大学主办的综合出版单位。植根于“清华”这座久负盛名的高等学府,秉承清华人“自强不息,厚德载物”的人文精神,清华大学出版社在短短二十多年的时间里,迅速成长起来。清华大学出版社始终坚持弘扬科技文化产业、服务科教兴国战略的出版方向,把出版高等学校教学用书和科技图书作为主要任务,并为促进学术交流、繁荣出版事业设立了多项出版基金,逐渐形成了以出版高水平的教材和学术专著为主的鲜明特色,在教育出版领域树立了强势品牌。