科技
类型
可以朗读
语音朗读
99千字
字数
2024-09-01
发行日期
展开全部
主编推荐语
全面介绍TensorFlow 2.x框架及其在深度学习中的应用。
内容简介
全书内容包括TensorFlow简介、Python语言基础、环境搭建与门、TensorBoard可视化、多层感知机实现、卷积神经网络实现、循环神经网络实现、强化学习、迁移学习、生成对抗网络和GPU并行计算等。
目录
- 版权信息
- 内容简介
- 编写组
- 总序
- 前言
- 第1章 TensorFlow简介
- 1.1 人工智能的编程框架
- 1.1.1 人工智能的发展
- 1.1.2 人工智能、机器学习和深度学习之间的关系
- 1.2 TensorFlow与人工智能
- 1.3 TensorFlow数据模型
- 1.4 TensorFlow计算模型和运行模型
- 1.5 实验:矩阵运算
- 1.5.1 实验目的
- 1.5.2 实验要求
- 1.5.3 实验原理
- 1.5.4 实验步骤
- 习题
- 第2章 Python语言基础
- 2.1 Python语言
- 2.1.1 Python语言的发展
- 2.1.2 Python安装
- 2.2 基础语法
- 2.2.1 基础知识
- 2.2.2 基本程序编写
- 2.2.3 条件语句
- 2.2.4 循环语句
- 2.3 数据结构
- 2.4 面向对象特性
- 2.4.1 类和对象
- 2.4.2 类的定义
- 2.4.3 根据类创建对象
- 2.4.4 构造方法与析构方法
- 2.5 其他高级特性
- 2.5.1 函数高级特性
- 2.5.2 闭包
- 2.6 实验:Python基本语法的实现
- 2.6.1 实验目的
- 2.6.2 实验要求
- 2.6.3 实验题目
- 2.6.4 实验步骤
- 习题
- 第3章 环境搭建与入门
- 3.1 开发平台简介
- 3.2 开发环境部署
- 3.2.1 安装Anaconda
- 3.2.2 安装TensorFlow
- 3.2.3 PyCharm下载与安装
- 3.3 一个简单的实例
- 习题
- 第4章 TensorBoard可视化
- 4.1 什么是TensorBoard
- 4.2 基本流程与结构
- 4.3 图表的可视化
- 4.3.1 计算图和会话
- 4.3.2 可视化过程
- 4.4 监控指标的可视化
- 4.4.1 Scalar
- 4.4.2 Images
- 4.4.3 Histogram
- 4.4.4 Merge_all
- 4.5 学习过程的可视化
- 4.5.1 数据序列化
- 4.5.2 启动TensorBoard
- 4.6 实验:TensorBoard可视化实现
- 4.6.1 实验目的
- 4.6.2 实验要求
- 4.6.3 实验原理
- 4.6.4 实验步骤
- 习题
- 第5章 多层感知机实现
- 5.1 感知机
- 5.1.1 感知机的定义
- 5.1.2 感知机的神经元模型
- 5.1.3 感知机的学习算法
- 5.1.4 感知机的性质
- 5.2 多层感知机与前向传播
- 5.2.1 多层感知机基本结构
- 5.2.2 多层感知机的特点
- 5.3 前向传播
- 5.3.1 前向传播的计算过程
- 5.3.2 前向传播算法
- 5.4 梯度下降
- 5.4.1 梯度
- 5.4.2 梯度下降的直观解释
- 5.4.3 梯度下降法的相关概念
- 5.4.4 梯度下降法的数学描述
- 5.4.5 梯度下降法的算法调优
- 5.4.6 常见的梯度下降法
- 5.5 反向传播
- 5.5.1 反向传播算法要解决的问题
- 5.5.2 反向传播算法的基本思路
- 5.5.3 反向传播算法的流程
- 5.6 数据集
- 5.6.1 训练集、测试集和验证集
- 5.6.2 MNIST数据集
- 5.7 多层感知机的实现
- 5.7.1 NumPy多层感知机的实现
- 5.7.2 TensorFlow多层感知机的实现
- 5.8 实验:基于Keras多层感知机的MNIST手写数字识别
- 5.8.1 Keras简介
- 5.8.2 实验目的
- 5.8.3 实验要求
- 5.8.4 实验步骤
- 习题
- 第6章 卷积神经网络实现
- 6.1 CNN基本原理
- 6.2 CNN的卷积操作
- 6.3 CNN的池化操作
- 6.4 使用简单的CNN实现手写字符识别
- 6.5 AlexNet
- 6.6 实验:基于VGG16模型的图像分类实现
- 6.6.1 实验目的
- 6.6.2 实验要求
- 6.6.3 实验原理
- 6.6.4 实验步骤
- 习题
- 第7章 循环神经网络实现
- 7.1 RNN简介
- 7.1.1 为什么使用RNN
- 7.1.2 RNN的网络结构及原理
- 7.1.3 RNN的实现
- 7.2 长短时记忆网络
- 7.2.1 长期依赖问题
- 7.2.2 长短时记忆网络
- 7.2.3 LSTM的实现
- 7.3 双向RNN
- 7.3.1 双向RNN的结构及原理
- 7.3.2 双向RNN的实现
- 7.4 深层RNN
- 7.5 实验:基于LSTM的股票预测
- 7.5.1 实验目的
- 7.5.2 实验要求
- 7.5.3 实验原理
- 7.5.4 实验步骤
- 习题
- 第8章 强化学习
- 8.1 强化学习原理
- 8.2 马尔可夫决策过程实现
- 8.2.1 马尔可夫决策过程
- 8.2.2 马尔可夫决策过程的形式化
- 8.3 基于价值的强化学习方法
- 8.3.1 基于价值的方法中的策略优化
- 8.3.2 基于价值的方法中的策略评估
- 8.3.3 Q-Learning
- 8.4 Gym的简单使用
- 8.5 实验:基于强化学习的小车爬山游戏
- 8.5.1 实验目的
- 8.5.2 实验要求
- 8.5.3 实验原理
- 8.5.4 实验步骤
- 习题
- 第9章 迁移学习
- 9.1 迁移学习原理
- 9.1.1 什么是迁移学习
- 9.1.2 迁移学习的基本概念
- 9.1.3 迁移学习的基本方法
- 9.2 基于模型的迁移学习方法实现
- 9.2.1 导入已有的预训练模型
- 9.2.2 模型的复用
- 9.2.3 基于新模型的预测
- 9.3 基于VGG-19的迁移学习实现
- 9.3.1 VGG-19的原理
- 9.3.2 基于VGG-19的迁移学习的原理及实现
- 9.4 实验:基于Inception V3的迁移学习
- 9.4.1 实验目的
- 9.4.2 实验要求
- 9.4.3 实验原理
- 9.4.4 实验步骤
- 习题
- 第10章 生成对抗网络
- 10.1 GAN概述
- 10.2 GAN的目标函数
- 10.3 GAN的实现
- 10.4 深度卷积生成对抗网络
- 10.4.1 DCGAN结构图
- 10.4.2 DCGAN的实现
- 10.5 GAN的衍生模型
- 10.5.1 基于网络结构的衍生模型
- 10.5.2 基于优化方法的衍生模型
- 习题
- 第11章 GPU并行计算
- 11.1 并行计算技术
- 11.1.1 单机并行计算
- 11.1.2 分布式并行计算
- 11.1.3 GPU并行计算技术
- 11.1.4 TensorFlow与GPU
- 11.2 TensorFlow加速方法
- 11.3 单GPU并行加速的实现
- 11.4 多GPU并行加速的实现
- 11.5 实验:基于GPU的矩阵乘法
- 11.5.1 安装GPU版本的TensorFlow
- 11.5.2 一个GPU程序
- 11.5.3 使用GPU完成矩阵乘法
- 习题
展开全部
出版方
电子工业出版社
电子工业出版社成立于1982年10月,是国务院独资、工信部直属的中央级科技与教育出版社,是专业的信息技术知识集成和服务提供商。经过三十多年的建设与发展,已成为一家以科技和教育出版、期刊、网络、行业支撑服务、数字出版、软件研发、软科学研究、职业培训和教育为核心业务的现代知识服务集团。出版物内容涵盖了电子信息技术的各个分支及工业技术、经济管理、科普与少儿、社科人文等领域,综合出版能力位居全国出版行业前列。