展开全部

主编推荐语

本书详解JAX框架深度学习的相关知识,配套示例源码、数据集和开发环境。

内容简介

全书共分为13章,内容包括JAX从零开始,一学就会的线性回归、多层感知机与自动微分器,深度学习的理论基础,XLA与JAX一般特性,JAX的高级特性,JAX的一些细节,JAX中的卷积,JAX与TensorFlow的比较与交互,遵循JAX函数基本规则下的自定义函数,JAX中的高级包。最后给出3个实战案例:使用ResNet完成CIFAR100数据集分类,有趣的词嵌入,生成对抗网络(GAN)。

本书适合JAX框架初学者、深度学习初学者以及深度学习从业人员,也适合作为高等院校和培训机构人工智能相关专业的师生教学参考书。

目录

  • 版权信息
  • 内容简介
  • 前言
  • 深度学习图书推荐
  • 第1章 JAX从零开始
  • 1.1 JAX来了
  • 1.1.1 JAX是什么
  • 1.1.2 为什么是JAX
  • 1.2 JAX的安装与使用
  • 1.2.1 Windows Subsystem for Linux的安装
  • 1.2.2 JAX的安装和验证
  • 1.2.3 PyCharm的下载与安装
  • 1.2.4 使用PyCharm和JAX
  • 1.2.5 JAX的Python代码小练习:计算SeLU函数
  • 1.3 JAX实战——MNIST手写体的识别
  • 1.3.1 第一步:准备数据集
  • 1.3.2 第二步:模型的设计
  • 1.3.3 第三步:模型的训练
  • 1.4 本章小结
  • 第2章 一学就会的线性回归、多层感知机与自动微分器
  • 2.1 多层感知机
  • 2.1.1 全连接层—多层感知机的隐藏层
  • 2.1.2 使用JAX实现一个全连接层
  • 2.1.3 更多功能的全连接函数
  • 2.2 JAX实战—鸢尾花分类
  • 2.2.1 鸢尾花数据准备与分析
  • 2.2.2 模型分析—采用线性回归实战鸢尾花分类
  • 2.2.3 基于JAX的线性回归模型的编写
  • 2.2.4 多层感知机与神经网络
  • 2.2.5 基于JAX的激活函数、softmax函数与交叉熵函数
  • 2.2.6 基于多层感知机的鸢尾花分类实战
  • 2.3 自动微分器
  • 2.3.1 什么是微分器
  • 2.3.2 JAX中的自动微分
  • 2.4 本章小结
  • 第3章 深度学习的理论基础
  • 3.1 BP神经网络简介
  • 3.2 BP神经网络两个基础算法详解
  • 3.2.1 最小二乘法详解
  • 3.2.2 道士下山的故事—梯度下降算法
  • 3.2.3 最小二乘法的梯度下降算法以及JAX实现
  • 3.3 反馈神经网络反向传播算法介绍
  • 3.3.1 深度学习基础
  • 3.3.2 链式求导法则
  • 3.3.3 反馈神经网络原理与公式推导
  • 3.3.4 反馈神经网络原理的激活函数
  • 3.3.5 反馈神经网络原理的Python实现
  • 3.4 本章小结
  • 第4章 XLA与JAX一般特性
  • 4.1 JAX与XLA
  • 4.1.1 XLA如何运行
  • 4.1.2 XLA如何工作
  • 4.2 JAX一般特性
  • 4.2.1 利用JIT加快程序运行
  • 4.2.2 自动微分器—grad函数
  • 4.2.3 自动向量化映射—vmap函数
  • 4.3 本章小结
  • 第5章 JAX的高级特性
  • 5.1 JAX与NumPy
  • 5.1.1 像NumPy一样运行的JAX
  • 5.1.2 JAX的底层实现lax
  • 5.1.3 并行化的JIT机制与不适合使用JIT的情景
  • 5.1.4 JIT的参数详解
  • 5.2 JAX程序的编写规范要求
  • 5.2.1 JAX函数必须要为纯函数
  • 5.2.2 JAX中数组的规范操作
  • 5.2.3 JIT中的控制分支
  • 5.2.4 JAX中的if、while、for、scan函数
  • 5.3 本章小结
  • 第6章 JAX的一些细节
  • 6.1 JAX中的数值计算
  • 6.1.1 JAX中的grad函数使用细节
  • 6.1.2 不要编写带有副作用的代码—JAX与NumPy的差异
  • 6.1.3 一个简单的线性回归方程拟合
  • 6.2 JAX中的性能提高
  • 6.2.1 JIT的转换过程
  • 6.2.2 JIT无法对非确定参数追踪
  • 6.2.3 理解JAX中的预编译与缓存
  • 6.3 JAX中的函数自动打包器—vmap
  • 6.3.1 剥洋葱—对数据的手工打包
  • 6.3.2 剥甘蓝—JAX中的自动向量化函数vmap
  • 6.3.3 JAX中高阶导数的处理
  • 6.4 JAX中的结构体保存方法Pytrees
  • 6.4.1 Pytrees是什么
  • 6.4.2 常见的pytree函数
  • 6.4.3 深度学习模型参数的控制(线性模型)
  • 6.4.4 深度学习模型参数的控制(非线性模型)
  • 6.4.5 自定义的Pytree节点
  • 6.4.6 JAX数值计算的运行机制
  • 6.5 本章小结
  • 第7章 JAX中的卷积
  • 7.1 什么是卷积
  • 7.1.1 卷积运算
  • 7.1.2 JAX中的一维卷积与多维卷积的计算
  • 7.1.3 JAX.lax中的一般卷积的计算与表示
  • 7.2 JAX实战—基于VGG架构的MNIST数据集分类
  • 7.2.1 深度学习Visual Geometry Group(VGG)架构
  • 7.2.2 VGG中使用的组件介绍与实现
  • 7.2.3 基于VGG6的MNIST数据集分类实战
  • 7.3 本章小结
  • 第8章 JAX与TensorFlow的比较与交互
  • 8.1 基于TensorFlow的MNIST分类
  • 8.2 TensorFlow与JAX的交互
  • 8.2.1 基于JAX的TensorFlow Datasets数据集分类实战
  • 8.2.2 TensorFlow Datasets数据集库简介
  • 8.3 本章小结
  • 第9章 遵循JAX函数基本规则下的自定义函数
  • 9.1 JAX函数的基本规则
  • 9.1.1 使用已有的原语
  • 9.1.2 自定义的JVP以及反向VJP
  • 9.1.3 进阶jax.custom_jvp和jax.custom_vjp函数用法
  • 9.2 Jaxpr解释器的使用
  • 9.2.1 Jaxpr tracer
  • 9.2.2 自定义的可以被Jaxpr跟踪的函数
  • 9.3 JAX维度名称的使用
  • 9.3.1 JAX的维度名称
  • 9.3.2 自定义JAX中的向量Tensor
  • 9.4 本章小结
  • 第10章 JAX中的高级包
  • 10.1 JAX中的包
  • 10.1.1 jax.numpy的使用
  • 10.1.2 jax.nn的使用
  • 10.2 jax.experimental包和jax.example_libraries的使用
  • 10.2.1 jax.experimental.sparse的使用
  • 10.2.2 jax.experimental.optimizers模块的使用
  • 10.2.3 jax.experimental.stax的使用
  • 10.3 本章小结
  • 第11章 JAX实战——使用ResNet完成CIFAR100数据集分类
  • 11.1 ResNet基础原理与程序设计基础
  • 11.1.1 ResNet诞生的背景
  • 11.1.2 使用JAX中实现的部件—不要重复造轮子
  • 11.1.3 一些stax模块中特有的类
  • 11.2 ResNet实战—CIFAR100数据集分类
  • 11.2.1 CIFAR100数据集简介
  • 11.2.2 ResNet残差模块的实现
  • 11.2.3 ResNet网络的实现
  • 11.2.4 使用ResNet对CIFAR100数据集进行分类
  • 11.3 本章小结
  • 第12章 JAX实战—有趣的词嵌入
  • 12.1 文本数据处理
  • 12.1.1 数据集和数据清洗
  • 12.1.2 停用词的使用
  • 12.1.3 词向量训练模型word2vec的使用
  • 12.1.4 文本主题的提取:基于TF-IDF
  • 12.1.5 文本主题的提取:基于TextRank
  • 12.2 更多的词嵌入方法—FastText和预训练词向量
  • 12.2.1 FastText的原理与基础算法
  • 12.2.2 FastText训练以及与JAX的协同使用
  • 12.2.3 使用其他预训练参数嵌入矩阵(中文)
  • 12.3 针对文本的卷积神经网络模型—字符卷积
  • 12.3.1 字符(非单词)文本的处理
  • 12.3.2 卷积神经网络文本分类模型的实现—conv1d(一维卷积)
  • 12.4 针对文本的卷积神经网络模型——词卷积
  • 12.4.1 单词的文本处理
  • 12.4.2 卷积神经网络文本分类模型的实现
  • 12.5 使用卷积对文本分类的补充内容
  • 12.5.1 中文的文本处理
  • 12.5.2 其他细节
  • 12.6 本章小结
  • 第13章 JAX实战—生成对抗网络(GAN)
  • 13.1 GAN的工作原理详解
  • 13.1.1 生成器与判别器共同构成了一个GAN
  • 13.1.2 GAN是怎么工作的
  • 13.2 GAN的数学原理详解
  • 13.2.1 GAN的损失函数
  • 13.2.2 生成器的产生分布的数学原理—相对熵简介
  • 13.3 JAX实战—GAN网络
  • 13.3.1 生成对抗网络GAN的实现
  • 13.3.2 GAN的应用前景
  • 13.4 本章小结
  • 附录 Windows 11安装GPU版本的JAX
展开全部

评分及书评

尚无评分
目前还没人评分

出版方

清华大学出版社

清华大学出版社成立于1980年6月,是由教育部主管、清华大学主办的综合出版单位。植根于“清华”这座久负盛名的高等学府,秉承清华人“自强不息,厚德载物”的人文精神,清华大学出版社在短短二十多年的时间里,迅速成长起来。清华大学出版社始终坚持弘扬科技文化产业、服务科教兴国战略的出版方向,把出版高等学校教学用书和科技图书作为主要任务,并为促进学术交流、繁荣出版事业设立了多项出版基金,逐渐形成了以出版高水平的教材和学术专著为主的鲜明特色,在教育出版领域树立了强势品牌。