展开全部

主编推荐语

全面介绍TensorFlow 2.x框架及其在深度学习中的应用。

内容简介

全书内容包括TensorFlow简介、Python语言基础、环境搭建与门、TensorBoard可视化、多层感知机实现、卷积神经网络实现、循环神经网络实现、强化学习、迁移学习、生成对抗网络和GPU并行计算等。

目录

  • 版权信息
  • 内容简介
  • 编写组
  • 总序
  • 前言
  • 第1章 TensorFlow简介
  • 1.1 人工智能的编程框架
  • 1.1.1 人工智能的发展
  • 1.1.2 人工智能、机器学习和深度学习之间的关系
  • 1.2 TensorFlow与人工智能
  • 1.3 TensorFlow数据模型
  • 1.4 TensorFlow计算模型和运行模型
  • 1.5 实验:矩阵运算
  • 1.5.1 实验目的
  • 1.5.2 实验要求
  • 1.5.3 实验原理
  • 1.5.4 实验步骤
  • 习题
  • 第2章 Python语言基础
  • 2.1 Python语言
  • 2.1.1 Python语言的发展
  • 2.1.2 Python安装
  • 2.2 基础语法
  • 2.2.1 基础知识
  • 2.2.2 基本程序编写
  • 2.2.3 条件语句
  • 2.2.4 循环语句
  • 2.3 数据结构
  • 2.4 面向对象特性
  • 2.4.1 类和对象
  • 2.4.2 类的定义
  • 2.4.3 根据类创建对象
  • 2.4.4 构造方法与析构方法
  • 2.5 其他高级特性
  • 2.5.1 函数高级特性
  • 2.5.2 闭包
  • 2.6 实验:Python基本语法的实现
  • 2.6.1 实验目的
  • 2.6.2 实验要求
  • 2.6.3 实验题目
  • 2.6.4 实验步骤
  • 习题
  • 第3章 环境搭建与入门
  • 3.1 开发平台简介
  • 3.2 开发环境部署
  • 3.2.1 安装Anaconda
  • 3.2.2 安装TensorFlow
  • 3.2.3 PyCharm下载与安装
  • 3.3 一个简单的实例
  • 习题
  • 第4章 TensorBoard可视化
  • 4.1 什么是TensorBoard
  • 4.2 基本流程与结构
  • 4.3 图表的可视化
  • 4.3.1 计算图和会话
  • 4.3.2 可视化过程
  • 4.4 监控指标的可视化
  • 4.4.1 Scalar
  • 4.4.2 Images
  • 4.4.3 Histogram
  • 4.4.4 Merge_all
  • 4.5 学习过程的可视化
  • 4.5.1 数据序列化
  • 4.5.2 启动TensorBoard
  • 4.6 实验:TensorBoard可视化实现
  • 4.6.1 实验目的
  • 4.6.2 实验要求
  • 4.6.3 实验原理
  • 4.6.4 实验步骤
  • 习题
  • 第5章 多层感知机实现
  • 5.1 感知机
  • 5.1.1 感知机的定义
  • 5.1.2 感知机的神经元模型
  • 5.1.3 感知机的学习算法
  • 5.1.4 感知机的性质
  • 5.2 多层感知机与前向传播
  • 5.2.1 多层感知机基本结构
  • 5.2.2 多层感知机的特点
  • 5.3 前向传播
  • 5.3.1 前向传播的计算过程
  • 5.3.2 前向传播算法
  • 5.4 梯度下降
  • 5.4.1 梯度
  • 5.4.2 梯度下降的直观解释
  • 5.4.3 梯度下降法的相关概念
  • 5.4.4 梯度下降法的数学描述
  • 5.4.5 梯度下降法的算法调优
  • 5.4.6 常见的梯度下降法
  • 5.5 反向传播
  • 5.5.1 反向传播算法要解决的问题
  • 5.5.2 反向传播算法的基本思路
  • 5.5.3 反向传播算法的流程
  • 5.6 数据集
  • 5.6.1 训练集、测试集和验证集
  • 5.6.2 MNIST数据集
  • 5.7 多层感知机的实现
  • 5.7.1 NumPy多层感知机的实现
  • 5.7.2 TensorFlow多层感知机的实现
  • 5.8 实验:基于Keras多层感知机的MNIST手写数字识别
  • 5.8.1 Keras简介
  • 5.8.2 实验目的
  • 5.8.3 实验要求
  • 5.8.4 实验步骤
  • 习题
  • 第6章 卷积神经网络实现
  • 6.1 CNN基本原理
  • 6.2 CNN的卷积操作
  • 6.3 CNN的池化操作
  • 6.4 使用简单的CNN实现手写字符识别
  • 6.5 AlexNet
  • 6.6 实验:基于VGG16模型的图像分类实现
  • 6.6.1 实验目的
  • 6.6.2 实验要求
  • 6.6.3 实验原理
  • 6.6.4 实验步骤
  • 习题
  • 第7章 循环神经网络实现
  • 7.1 RNN简介
  • 7.1.1 为什么使用RNN
  • 7.1.2 RNN的网络结构及原理
  • 7.1.3 RNN的实现
  • 7.2 长短时记忆网络
  • 7.2.1 长期依赖问题
  • 7.2.2 长短时记忆网络
  • 7.2.3 LSTM的实现
  • 7.3 双向RNN
  • 7.3.1 双向RNN的结构及原理
  • 7.3.2 双向RNN的实现
  • 7.4 深层RNN
  • 7.5 实验:基于LSTM的股票预测
  • 7.5.1 实验目的
  • 7.5.2 实验要求
  • 7.5.3 实验原理
  • 7.5.4 实验步骤
  • 习题
  • 第8章 强化学习
  • 8.1 强化学习原理
  • 8.2 马尔可夫决策过程实现
  • 8.2.1 马尔可夫决策过程
  • 8.2.2 马尔可夫决策过程的形式化
  • 8.3 基于价值的强化学习方法
  • 8.3.1 基于价值的方法中的策略优化
  • 8.3.2 基于价值的方法中的策略评估
  • 8.3.3 Q-Learning
  • 8.4 Gym的简单使用
  • 8.5 实验:基于强化学习的小车爬山游戏
  • 8.5.1 实验目的
  • 8.5.2 实验要求
  • 8.5.3 实验原理
  • 8.5.4 实验步骤
  • 习题
  • 第9章 迁移学习
  • 9.1 迁移学习原理
  • 9.1.1 什么是迁移学习
  • 9.1.2 迁移学习的基本概念
  • 9.1.3 迁移学习的基本方法
  • 9.2 基于模型的迁移学习方法实现
  • 9.2.1 导入已有的预训练模型
  • 9.2.2 模型的复用
  • 9.2.3 基于新模型的预测
  • 9.3 基于VGG-19的迁移学习实现
  • 9.3.1 VGG-19的原理
  • 9.3.2 基于VGG-19的迁移学习的原理及实现
  • 9.4 实验:基于Inception V3的迁移学习
  • 9.4.1 实验目的
  • 9.4.2 实验要求
  • 9.4.3 实验原理
  • 9.4.4 实验步骤
  • 习题
  • 第10章 生成对抗网络
  • 10.1 GAN概述
  • 10.2 GAN的目标函数
  • 10.3 GAN的实现
  • 10.4 深度卷积生成对抗网络
  • 10.4.1 DCGAN结构图
  • 10.4.2 DCGAN的实现
  • 10.5 GAN的衍生模型
  • 10.5.1 基于网络结构的衍生模型
  • 10.5.2 基于优化方法的衍生模型
  • 习题
  • 第11章 GPU并行计算
  • 11.1 并行计算技术
  • 11.1.1 单机并行计算
  • 11.1.2 分布式并行计算
  • 11.1.3 GPU并行计算技术
  • 11.1.4 TensorFlow与GPU
  • 11.2 TensorFlow加速方法
  • 11.3 单GPU并行加速的实现
  • 11.4 多GPU并行加速的实现
  • 11.5 实验:基于GPU的矩阵乘法
  • 11.5.1 安装GPU版本的TensorFlow
  • 11.5.2 一个GPU程序
  • 11.5.3 使用GPU完成矩阵乘法
  • 习题
展开全部

评分及书评

尚无评分
目前还没人评分

出版方

电子工业出版社

电子工业出版社成立于1982年10月,是国务院独资、工信部直属的中央级科技与教育出版社,是专业的信息技术知识集成和服务提供商。经过三十多年的建设与发展,已成为一家以科技和教育出版、期刊、网络、行业支撑服务、数字出版、软件研发、软科学研究、职业培训和教育为核心业务的现代知识服务集团。出版物内容涵盖了电子信息技术的各个分支及工业技术、经济管理、科普与少儿、社科人文等领域,综合出版能力位居全国出版行业前列。