互联网
类型
8.7
豆瓣评分
可以朗读
语音朗读
208千字
字数
2022-10-01
发行日期
展开全部
主编推荐语
本书从算法理论、算法源码、实验结果等方面对深度学习算法进行分析和介绍。
内容简介
全书共三篇。
第一篇主要介绍深度学习在计算机视觉方向的一些卷积神经网络,从基础骨干网络、轻量级CNN、模型架构搜索3个方向展开,介绍计算机视觉方向的里程碑算法;
第二篇主要介绍深度学习在自然语言处理方向的重要突破,包括基础序列模型和模型预训练;
第三篇主要介绍深度学习在模型优化上的进展,包括模型优化方法。
通过阅读本书,读者可以深入理解主流的深度学习基础算法,搭建起自己的知识体系,领会算法的本质,学习模型优化方法。无论是从事深度学习科研的教师及学生,还是从事算法落地实践的工作人员,都能从本书中获益。
目录
- 版权信息
- 内容提要
- 序1
- 序2
- 前言
- 资源与支持
- 第一篇 卷积神经网络
- 第1章 基础骨干网络
- 1.1 起源:LeNet-5和AlexNet
- 1.2 更深:VGG
- 1.3 更宽:GoogLeNet
- 1.4 跳跃连接:ResNet
- 1.5 注意力:SENet
- 1.6 更密:DenseNet
- 1.7 模型集成:DPN
- 1.8 像素向量:iGPT
- 1.9 Visual Transformer之Swin Transformer
- 1.10 Vision Transformer之CSWin Transformer
- 1.11 MLP? :MLP-Mixer
- 第2章 轻量级CNN
- 2.1 SqueezeNet
- 2.2 MobileNet v1和MobileNet v2
- 2.3 Xception
- 2.4 ResNeXt
- 2.5 ShuffleNet v1和ShuffleNet v2
- 2.6 CondenseNet
- 第3章 模型架构搜索
- 3.1 PolyNet
- 3.2 NAS
- 3.3 NASNet
- 3.4 PNASNet
- 3.5 AmoebaNet
- 3.6 MnasNet
- 3.7 MobileNet v3
- 3.8 EfficientNet v1
- 3.9 EfficientNet v2
- 3.10 RegNet
- 第二篇 自然语言处理
- 第4章 基础序列模型
- 4.1 LSTM和GRU
- 4.2 注意力机制
- 4.3 Transformer
- 4.4 Transformer-XL
- 第5章 模型预训练
- 5.1 RNN语言模型
- 5.2 ELMo
- 5.3 GPT-1、GPT-2和GPT-3
- 5.4 BERT
- 5.5 BERT“魔改”之RoBERTa、ALBERT、MT-DNN和XLM
- 5.6 XLNet
- 5.7 ERNIE(清华大学)
- 5.8 ERNIE(百度)和ERNIE 2.0
- 第三篇 模型优化
- 第6章 模型优化方法
- 6.1 Dropout
- 6.2 BN
- 6.3 LN
- 6.4 WN
- 6.5 IN
- 6.6 GN
- 6.7 SN
展开全部
出版方
人民邮电出版社
人民邮电出版社是工业和信息化部主管的大型专业出版社,成立于1953年10月1日。人民邮电出版社坚持“立足信息产业、面向现代社会、传播科学知识、服务科教兴国”,致力于通信、计算机、电子技术、教材、少儿、经管、摄影、集邮、旅游、心理学等领域的专业图书出版。