展开全部

主编推荐语

图解NPU算法、架构与实现,教你从零开始设计一个能用、好用的产品级加速器。

内容简介

本书是一本讲解NPU硬件架构设计与技术实现的著作。作者将自己在CPU、GPU和NPU领域15年的软硬件工作经验融会贯通,将四代NPU架构设计经验融为一体,将端侧和云侧NPU架构合二为一,总结并提炼出本书内容。

本书主要讨论神经网络硬件层面,尤其是芯片设计层面的内容,主要包含神经网络的分析、神经网络加速器的设计以及具体实现技术。

通过阅读本书,你可以深入了解主流的神经网络结构,掌握如何从零开始设计一个能用、好用的产品级加速器。

目录

  • 版权信息
  • 前言
  • 第1章 卷积神经网络
  • 1.1 神经网络的结构
  • 1.2 GCN
  • 1.3 网络的基本块
  • 1.4 网络的算子
  • 1.5 网络参数量与运算量
  • 1.6 加速器编程模型
  • 1.7 硬件加速器架构分类
  • 第2章 运算子系统的设计
  • 2.1 数据流设计
  • 2.2 算力与带宽
  • 2.2.1 算力与输入带宽
  • 2.2.2 算力与输出带宽
  • 2.3 卷积乘法阵列
  • 2.3.1 Conv算法详解
  • 2.3.2 NVDLA的乘法阵列
  • 2.3.3 TPU的乘法阵列
  • 2.3.4 GPU的乘法阵列
  • 2.3.5 华为DaVinci的乘法阵列
  • 2.4 卷积运算顺序的选择
  • 2.5 池化模块的设计
  • 第3章 存储子系统的设计
  • 3.1 存储子系统概述
  • 3.1.1 存储子系统的组成
  • 3.1.2 内部缓存的设计
  • 3.2 数据格式的定义
  • 3.2.1 特征图的格式
  • 3.2.2 权重的格式
  • 第4章 架构优化技术
  • 4.1 运算精度的选择
  • 4.1.1 dynamic fixed point类型
  • 4.1.2 bfloat16类型
  • 4.2 硬件资源的复用
  • 4.2.1 FC
  • 4.2.2 de-Conv
  • 4.2.3 dilate Conv
  • 4.2.4 group Conv
  • 4.2.5 3D Conv
  • 4.2.6 TC Conv
  • 4.2.7 3D Pool
  • 4.2.8 Up Sample Pooling
  • 4.2.9 多个加速器的级联
  • 4.3 Winograd算法和FFT算法
  • 4.3.1 Winograd算法解析
  • 4.3.2 FFT算法解析
  • 4.4 除法变乘法
  • 4.5 LUT的使用
  • 4.6 宏块并行技术
  • 4.7 减少软件配置时间
  • 4.8 软件优化技术
  • 4.9 一些激进的优化技术
  • 第5章 安全与防护
  • 5.1 安全技术
  • 5.2 安全性评估
  • 5.3 防护
  • 第6章 神经网络加速器的实现
  • 6.1 乘法器的设计
  • 6.1.1 整型乘法器的设计
  • 6.1.2 浮点运算器的设计
  • 6.2 数字电路常见基本块的设计
  • 6.3 时序优化
  • 6.4 低功耗设计
  • 第7章 盘点与展望
  • 7.1 AI加速器盘点
  • 7.2 Training加速器
  • 7.3 展望
  • 后记
展开全部

评分及书评

尚无评分
目前还没人评分

出版方

机械工业出版社

机械工业出版社是全国优秀出版社,自1952年成立以来,坚持为科技、为教育服务,以向行业、向学校提供优质、权威的精神产品为宗旨,以“服务社会和人民群众需求,传播社会主义先进文化”为己任,产业结构不断完善,已由传统的图书出版向着图书、期刊、电子出版物、音像制品、电子商务一体化延伸,现已发展为多领域、多学科的大型综合性出版社,涉及机械、电工电子、汽车、计算机、经济管理、建筑、ELT、科普以及教材、教辅等领域。