展开全部

主编推荐语

本书从算法理论、算法源码、实验结果等方面对深度学习算法进行分析和介绍。

内容简介

全书共三篇。

第一篇主要介绍深度学习在计算机视觉方向的一些卷积神经网络,从基础骨干网络、轻量级CNN、模型架构搜索3个方向展开,介绍计算机视觉方向的里程碑算法;

第二篇主要介绍深度学习在自然语言处理方向的重要突破,包括基础序列模型和模型预训练;

第三篇主要介绍深度学习在模型优化上的进展,包括模型优化方法。

通过阅读本书,读者可以深入理解主流的深度学习基础算法,搭建起自己的知识体系,领会算法的本质,学习模型优化方法。无论是从事深度学习科研的教师及学生,还是从事算法落地实践的工作人员,都能从本书中获益。

目录

  • 版权信息
  • 内容提要
  • 序1
  • 序2
  • 前言
  • 资源与支持
  • 第一篇 卷积神经网络
  • 第1章 基础骨干网络
  • 1.1 起源:LeNet-5和AlexNet
  • 1.2 更深:VGG
  • 1.3 更宽:GoogLeNet
  • 1.4 跳跃连接:ResNet
  • 1.5 注意力:SENet
  • 1.6 更密:DenseNet
  • 1.7 模型集成:DPN
  • 1.8 像素向量:iGPT
  • 1.9 Visual Transformer之Swin Transformer
  • 1.10 Vision Transformer之CSWin Transformer
  • 1.11 MLP? :MLP-Mixer
  • 第2章 轻量级CNN
  • 2.1 SqueezeNet
  • 2.2 MobileNet v1和MobileNet v2
  • 2.3 Xception
  • 2.4 ResNeXt
  • 2.5 ShuffleNet v1和ShuffleNet v2
  • 2.6 CondenseNet
  • 第3章 模型架构搜索
  • 3.1 PolyNet
  • 3.2 NAS
  • 3.3 NASNet
  • 3.4 PNASNet
  • 3.5 AmoebaNet
  • 3.6 MnasNet
  • 3.7 MobileNet v3
  • 3.8 EfficientNet v1
  • 3.9 EfficientNet v2
  • 3.10 RegNet
  • 第二篇 自然语言处理
  • 第4章 基础序列模型
  • 4.1 LSTM和GRU
  • 4.2 注意力机制
  • 4.3 Transformer
  • 4.4 Transformer-XL
  • 第5章 模型预训练
  • 5.1 RNN语言模型
  • 5.2 ELMo
  • 5.3 GPT-1、GPT-2和GPT-3
  • 5.4 BERT
  • 5.5 BERT“魔改”之RoBERTa、ALBERT、MT-DNN和XLM
  • 5.6 XLNet
  • 5.7 ERNIE(清华大学)
  • 5.8 ERNIE(百度)和ERNIE 2.0
  • 第三篇 模型优化
  • 第6章 模型优化方法
  • 6.1 Dropout
  • 6.2 BN
  • 6.3 LN
  • 6.4 WN
  • 6.5 IN
  • 6.6 GN
  • 6.7 SN
展开全部

评分及书评

尚无评分
目前还没人评分

出版方

人民邮电出版社

人民邮电出版社是工业和信息化部主管的大型专业出版社,成立于1953年10月1日。人民邮电出版社坚持“立足信息产业、面向现代社会、传播科学知识、服务科教兴国”,致力于通信、计算机、电子技术、教材、少儿、经管、摄影、集邮、旅游、心理学等领域的专业图书出版。