展开全部

主编推荐语

《深度学习与TensorFlow应用实践》22章讲解:类库安装使用、数据结构、数据集、人工神经网络等多方面知识。

内容简介

本书内容分为22章,包括Python类库的安装和使用、TensorFlow基本数据结构和使用、TensorFlow数据集的创建与读取、人工神经网络介绍、反馈神经网络的理论基础,深度学习模型的创建以及相关特性介绍等内容,并在本书各个模型部分特别介绍了模型调参的初步知识。本书强调理论联系实际,着重介绍了TensorFlow编程解决图像识别的应用,提供了大量数据集供读者使用,也以代码的形式实现了深度学习模型实供读者参考。

目录

  • 封面页
  • 书名页
  • 版权页
  • 作者简介
  • 内容简介
  • 推荐序
  • 再版自序——新的起点
  • 前言
  • 目录
  • 第1章 星星之火
  • 1.1 计算机视觉与深度学习
  • 1.1.1 人类视觉神经的启迪
  • 1.1.2 计算机视觉的难点与人工神经网络
  • 1.1.3 应用深度学习解决计算机视觉问题
  • 1.2 计算机视觉学习的基础与研究方向
  • 1.2.1 学习计算机视觉结构图
  • 1.2.2 计算机视觉的学习方式和未来趋势
  • 1.3 本章小结
  • 第2章 Python的安装与使用
  • 2.1 Python基本安装和用法
  • 2.1.1 Anaconda的下载与安装
  • 2.1.2 Python编译器PyCharm的安装
  • 2.1.3 使用Python计算softmax函数
  • 2.2 Python常用类库threading
  • 2.2.1 threading库的使用
  • 2.2.2 threading模块中最重要的Thread类
  • 2.2.3 threading中Lock类
  • 2.2.4 threading中join类
  • 2.3 本章小结
  • 第3章 深度学习的理论基础——机器学习
  • 3.1 机器学习基本分类
  • 3.1.1 应用学科的分类
  • 3.1.2 学习模式的分类
  • 3.1.3 应用领域的分类
  • 3.2 机器学习基本算法
  • 3.2.1 机器学习的算法流程
  • 3.2.2 基本算法的分类
  • 3.3 算法的理论基础
  • 3.3.1 小学生的故事——求圆的面积
  • 3.3.2 机器学习基础理论——函数逼近
  • 3.4 回归算法
  • 3.4.1 函数逼近经典算法——线性回归算法
  • 3.4.2 线性回归的姐妹——逻辑回归
  • 3.5 本章小结
  • 第4章 Python类库的使用——数据处理及可视化展示
  • 4.1 从小例子起步——NumPy的初步使用
  • 4.1.1 数据的矩阵化
  • 4.1.2 数据分析
  • 4.1.3 基于统计分析的数据处理
  • 4.2 图形化数据处理——Matplotlib包使用
  • 4.2.1 差异的可视化
  • 4.2.2 坐标图的展示
  • 4.2.3 玩个大的
  • 4.3 深度学习理论方法——相似度计算
  • 4.3.1 基于欧几里得距离的相似度计算
  • 4.3.2 基于余弦角度的相似度计算
  • 4.3.3 欧几里得相似度与余弦相似度的比较
  • 4.4 数据的统计学可视化展示
  • 4.4.1 数据的四分位
  • 4.4.2 数据的四分位示例
  • 4.4.3 数据的标准化
  • 4.4.4 数据的平行化处理
  • 4.4.5 热点图-属性相关性检测
  • 4.5 Python实战——某地降雨的关系处理
  • 4.5.1 不同年份的相同月份统计
  • 4.5.2 不同月份之间的增减程度比较
  • 4.5.3 每月降雨不相关吗
  • 4.6 本章小结
  • 第5章  OpenCV的基础使用
  • 5.1 OpenCV基本的图片读取
  • 5.1.1 基本的图片存储格式
  • 5.1.2 图像的读取与存储
  • 5.1.3 图像的转换
  • 5.1.4 使用NumPy模块对图像进行编辑
  • 5.2 OpenCV的卷积核处理
  • 5.2.1 计算机视觉的三种不同色彩空间
  • 5.2.2 卷积核与图像特征提取
  • 5.2.3 卷积核进阶
  • 5.3 本章小结
  • 第6章 OpenCV与TensorFlow的融合
  • 6.1 图片的自由缩放以及边缘裁剪
  • 6.1.1 图像的扩缩裁挖
  • 6.1.2 图像色调的调整
  • 6.1.3 图像的旋转、平移和翻转
  • 6.2 使用OpenCV扩大图像数据库
  • 6.2.1 图像的随机裁剪
  • 6.2.2 图像的随机旋转变换
  • 6.2.3 图像色彩的随机变换
  • 6.2.4 对鼠标的监控
  • 6.3 本章小结
  • 第7章 Let’s play TensorFlow
  • 7.1 TensorFlow游乐场
  • 7.1.1 I want to play a game
  • 7.1.2 TensorFlow游乐场背后的故事
  • 7.1.3 如何训练神经网络
  • 7.2 Hello TensorFlow
  • 7.2.1 TensorFlow名称的解释
  • 7.2.2 TensorFlow基本概念
  • 7.3 本章小结
  • 第8章 Hello TensorFlow,从0到1
  • 8.1 TensorFlow的安装
  • 8.2.1 检测Anaconda中的TensorFlow版本
  • 8.2.2 TensorFlow 2.0 GPU版本基础显卡推荐和前置软件安装
  • 8.2.3 第一个Hello TensorFlow小程序
  • 8.2 TensorFlow常量、变量和数据类型
  • 8.3 TensorFlow矩阵计算
  • 8.4 Hello TensorFlow
  • 8.5 本章小结
  • 第9章 TensorFlow重要算法基础
  • 9.1 BP神经网络简介
  • 9.2 BP神经网络两个基础算法详解
  • 9.2.1 最小二乘法(LS算法)详解
  • 9.2.2 道士下山的故事——梯度下降算法
  • 9.3 反馈神经网络反向传播算法介绍
  • 9.3.1 深度学习基础
  • 9.3.2 链式求导法则
  • 9.3.3 反馈神经网络原理与公式推导
  • 9.3.4 反馈神经网络原理的激活函数
  • 9.3.5 反馈神经网络原理的Python实现
  • 9.4 本章小结
  • 第10章 Hello TensorFlow & Keras
  • 10.1 MODEL!MODEL!还是MODEL
  • 10.2 使用Keras API实现鸢尾花分类的例子(顺序模式)
  • 10.2.1 数据的准备
  • 10.2.2 数据的处理
  • 10.2.3 梯度更新函数的写法
  • 10.3 使用Keras函数式编程实现鸢尾花分类的例子(重点)
  • 10.4 使用保存的Keras模式对模型进行复用
  • 10.5 使用TensorFlow 2.0标准化编译对Iris模型进行拟合
  • 10.6 多输入单输出TensorFlow 2.0编译方法(选学)
  • 10.7 多输入多输出TensorFlow 2.0编译方法(选学)
  • 10.8 全连接层详解
  • 10.8.1 全连接层的定义与实现
  • 10.8.2 使用TensorFlow 2.0自带的API实现全连接层
  • 10.8.3 打印显示TensorFlow 2.0设计的Model结构和参数
  • 10.9 本章小结
  • 第11章 卷积层详解与MNIST实战
  • 11.1 卷积运算基本概念
  • 11.1.1 卷积运算
  • 11.1.2 TensorFlow 2.0中卷积函数实现详解
  • 11.1.3 池化运算
  • 11.1.4 softmax激活函数
  • 11.1.5 卷积神经网络原理
  • 11.2 TensorFlow 2.0编程实战:MNIST手写体识别
  • 11.2.1 MNIST数据集
  • 11.2.2 MNIST数据集特征和标签介绍
  • 11.2.3 TensorFlow 2.0编程实战MNIST数据集
  • 11.2.4 使用自定义的卷积层实现MNIST识别
  • 11.3 本章小结
  • 第12章 卷积神经网络公式推导与应用
  • 12.1 反馈神经网络算法
  • 12.1.1 经典反馈神经网络正向与反向传播公式推导
  • 12.1.2 卷积神经网络正向与反向传播公式推导
  • 12.2 使用卷积神经网络分辨CIFAR-10数据集
  • 12.2.1 CIFAR-10数据集下载与介绍
  • 12.2.2 CIFAR-10模型的构建与数据处理
  • 12.2.3 CIFAR-10模型的细节描述与参数重构
  • 12.3 本章小结
  • 第13章 TensorFlow Datasets和TensorBoard详解
  • 13.1 TensorFlow Datasets简介
  • 13.2 Datasets数据集的基本使用
  • 13.3 Datasets数据集的使用——Fashion-MNIST
  • 13.3.1 Fashion-MNIST数据集下载与展示
  • 13.3.2 模型的建立与训练
  • 13.4 使用Keras对Fashion-MNIST数据集进行处理
  • 13.5 使用TensorBoard可视化训练过程
  • 13.5.1 TensorBoard文件夹的设置
  • 13.5.2 TensorBoard的显式调用
  • 13.5.3 TensorBoard的使用
  • 13.6 本章小结
  • 第14章 从冠军开始:ResNet
  • 14.1 ResNet基础原理与程序设计基础
  • 14.1.1 ResNet诞生的背景
  • 14.1.2 模块工具的TensorFlow实现——不要重复造轮子
  • 14.1.3 TensorFlow高级模块layers用法简介
  • 14.2 ResNet实战CIFAR-100数据集分类
  • 14.2.1 CIFAR-100数据集简介
  • 14.2.2 ResNet残差模块的实现
  • 14.2.3 ResNet网络的实现
  • 14.2.4 使用ResNet对CIFAR-100进行分类
  • 14.3 ResNet的兄弟——ResNeXt
  • 14.3.1 ResNeXt诞生的背景
  • 14.3.2 ResNeXt残差模块的实现
  • 14.3.3 ResNeXt网络的实现
  • 14.3.4 ResNeXt和ResNet的比较
  • 14.4 本章小结
  • 第15章 Attention is all we need
  • 15.1 简单的理解注意力机制
  • 15.1.1 何为注意力
  • 15.1.2 hard or soft——注意力机制的两种常见形式
  • 15.1.3 Spatial and Channel——注意力机制的两种实现形式
  • 15.2 SENet or CBAM注意力机制的经典模型
  • 15.2.1 最后的冠军——SENet
  • 15.2.2 结合了Spatial and Channel的CBAM模型
  • 15.2.3 注意力的前沿研究——基于细粒度的图像注意力机制
  • 15.3 本章小结
  • 第16章 开始找工作吧——深度学习常用面试问题答疑
  • 16.1 深度学习面试常用问题答疑
  • 16.1.1 如何降低过拟合(Overfitting)
  • 16.1.2 全连接层详解
  • 16.1.3 激活函数起作用的原因
  • 16.1.4 卷积后的图像大小
  • 16.1.5 池化层的作用
  • 16.1.6 为什么在最后分类时使用softmax而不是传统的SVM
  • 16.2 卷积神经网络调优面试问答汇总
  • 16.2.1 数据集的注意事项
  • 16.2.2 卷积模型训练的注意事项
  • 16.3 NIN模型介绍
  • 16.3.1 NIN(Network In Network)模型简介
  • 16.3.2 猫狗大战——NIN的代码实现
  • 16.4 deeper is better——GoogLeNet模型介绍
  • 16.4.1 GoogLeNet模型的介绍
  • 16.4.2 GoogLeNet模型单元的TensorFlow实现
  • 16.4.3 GoogLeNet模型一些注意事项
  • 16.5 本章小结
  • 第17章 不服就是GAN——对抗生成网络
  • 17.1 一个悲惨的故事
  • 17.2 GAN基本原理简介
  • 17.3 GAN实战——手写体数字的生成
  • 17.3.1 MNIST数据集和GAN模型实现
  • 17.3.2 训练参数的定义和实现
  • 17.4 本章小结
  • 第18章 未来的趋势——图卷积神经网络初步
  • 18.1 图卷积神经网络的诞生背景
  • 18.1.1 图卷积基本原理介绍
  • 18.1.2 图卷积基本原理和公式介绍
  • 18.1.3 图卷积需要的基本概念
  • 18.2 实战图卷积神经网络
  • 18.2.1 cora数据集简介
  • 18.2.2 图卷积模型的建立
  • 18.3 本章小结
展开全部

评分及书评

尚无评分
目前还没人评分

出版方

清华大学出版社

清华大学出版社成立于1980年6月,是由教育部主管、清华大学主办的综合出版单位。植根于“清华”这座久负盛名的高等学府,秉承清华人“自强不息,厚德载物”的人文精神,清华大学出版社在短短二十多年的时间里,迅速成长起来。清华大学出版社始终坚持弘扬科技文化产业、服务科教兴国战略的出版方向,把出版高等学校教学用书和科技图书作为主要任务,并为促进学术交流、繁荣出版事业设立了多项出版基金,逐渐形成了以出版高水平的教材和学术专著为主的鲜明特色,在教育出版领域树立了强势品牌。