展开全部

主编推荐语

深度学习入门教程,集各项前沿技术之大成,含Hinton神经胶囊网络的详细解读。

内容简介

深度学习是人工智能的前沿技术。《深度学习之美:AI时代的数据处理与最佳实践》深入浅出地介绍了深度学习的相关理论和实践,《深度学习之美:AI时代的数据处理与最佳实践》共分16章,采用理论和实践双主线写作方式。第1章给出深度学习的大图。第2章和第3章,讲解了机器学习的相关基础理论。第4章和第5章,讲解了Python基础和基于Python的机器学习实战。第6至10章,先后讲解了M-P模型、感知机、多层神经网络、BP神经网络等知识。第11章讲解了被广泛认可的深度学习框架TensorFlow。第12章和第13章详细讲解了卷积神经网络,并给出了相关的实战项目。第14章和第15章,分别讲解了循环递归网络和长短期记忆(LSTM)网络。第16章讲解了神经胶囊网络,并给出了神经胶囊网络设计的详细论述和实践案例分析。

《深度学习之美:AI时代的数据处理与最佳实践》结构完整、行文流畅,是一本难得的零基础入门、图文并茂、通俗易懂、理论结合实战的深度学习书籍。

目录

  • 版权信息
  • 内容简介
  • 推荐序一 通俗也是一种美德
  • 推荐序二 技术,也可以“美”到极致
  • 自序 深度学习的浅度梦想
  • 读者服务
  • 第1章 一入侯门“深”似海,深度学习深几许
  • 1.1 深度学习的巨大影响
  • 1.2 什么是学习
  • 1.3 什么是机器学习
  • 1.4 机器学习的4个象限
  • 1.5 什么是深度学习
  • 1.6 “恋爱”中的深度学习
  • 1.7 深度学习的方法论
  • 1.8 有没有浅层学习
  • 1.9 本章小结
  • 1.10 请你思考
  • 第2章 人工“碳”索意犹尽,智能“硅”来未可知
  • 2.1 信数据者得永生吗
  • 2.2 人工智能的“江湖定位”
  • 2.3 深度学习的归属
  • 2.4 机器学习的形式化定义
  • 2.5 为什么要用神经网络
  • 2.6 人工神经网络的特点
  • 2.7 什么是通用近似定理
  • 2.8 本章小结
  • 2.9 请你思考
  • 第3章 “机器学习”三重门,“中庸之道”趋若人
  • 3.1 监督学习
  • 3.1.1 感性认知监督学习
  • 3.1.2 监督学习的形式化描述
  • 3.1.3 k-近邻算法
  • 3.2 非监督学习
  • 3.2.1 感性认识非监督学习
  • 3.2.2 非监督学习的代表—K均值聚类
  • 3.3 半监督学习
  • 3.4 从“中庸之道”看机器学习
  • 3.5 强化学习
  • 3.6 本章小结
  • 3.7 请你思考
  • 第4章 人生苦短对酒歌,我用Python乐趣多
  • 4.1 Python概要
  • 4.1.1 为什么要用Python
  • 4.1.2 Python中常用的库
  • 4.2 Python的版本之争
  • 4.3 Python环境配置
  • 4.3.1 Windows下的安装与配置
  • 4.3.2 Mac下的安装与配置
  • 4.4 Python编程基础
  • 4.4.1 如何运行Python代码
  • 4.4.2 代码缩进
  • 4.4.3 注释
  • 4.4.4 Python中的数据结构
  • 4.4.5 函数的设计
  • 4.4.6 模块的导入与使用
  • 4.4.7 面向对象程序设计
  • 4.5 本章小结
  • 4.6 请你思考
  • 第5章 机器学习终觉浅,Python带我来实践
  • 5.1 线性回归
  • 5.1.1 线性回归的概念
  • 5.1.2 简易线性回归的Python实现详解
  • 5.2 k-近邻算法
  • 5.2.1 k-近邻算法的三个要素
  • 5.2.2 k-近邻算法实战
  • 5.2.3 使用scikit-learn实现k-近邻算法
  • 5.3 本章小结
  • 5.4 请你思考
  • 第6章 神经网络不胜语,M-P模型似可寻
  • 6.1 M-P神经元模型是什么
  • 6.2 模型背后的那些人和事
  • 6.3 激活函数是怎样的一种存在
  • 6.4 什么是卷积函数
  • 6.5 本章小结
  • 6.6 请你思考
  • 第7章 Hello World感知机,懂你我心才安息
  • 7.1 网之初,感知机
  • 7.2 感知机名称的由来
  • 7.3 感性认识“感知机”
  • 7.4 感知机是如何学习的
  • 7.5 感知机训练法则
  • 7.6 感知机的几何意义
  • 7.7 基于Python的感知机实战
  • 7.8 感知机的表征能力
  • 7.9 本章小结
  • 7.10 请你思考
  • 第8章 损失函数减肥用,神经网络调权重
  • 8.1 多层网络解决“异或”问题
  • 8.2 感性认识多层前馈神经网络
  • 8.3 是浅而“胖”好,还是深而“瘦”佳
  • 8.4 分布式特征表达
  • 8.5 丢弃学习与集成学习
  • 8.6 现实很丰满,理想很骨感
  • 8.7 损失函数的定义
  • 8.8 热力学定律与梯度弥散
  • 8.9 本章小结
  • 8.10 请你思考
  • 第9章 山重水复疑无路,最快下降问梯度
  • 9.1 “鸟飞派”还飞不
  • 9.2 1986年的那篇神作
  • 9.3 多层感知机网络遇到的大问题
  • 9.4 神经网络结构的设计
  • 9.5 再议损失函数
  • 9.6 什么是梯度
  • 9.7 什么是梯度递减
  • 9.8 梯度递减的线性回归实战
  • 9.9 什么是随机梯度递减
  • 9.10 利用SGD解决线性回归实战
  • 9.11 本章小结
  • 9.12 请你思考
  • 第10章 BP算法双向传,链式求导最缠绵
  • 10.1 BP算法极简史
  • 10.2 正向传播信息
  • 10.3 求导中的链式法则
  • 10.4 误差反向传播
  • 10.4.1 基于随机梯度下降的BP算法
  • 10.4.2 输出层神经元的权值训练
  • 10.4.3 隐含层神经元的权值训练
  • 10.4.4 BP算法的感性认知
  • 10.4.5 关于BP算法的补充说明
  • 10.5 BP算法实战详细解释
  • 10.5.1 初始化网络
  • 10.5.2 信息前向传播
  • 10.5.3 误差反向传播
  • 10.5.4 训练网络(解决异或问题)
  • 10.5.5 利用BP算法预测小麦品种的分类
  • 10.6 本章小结
  • 10.7 请你思考
  • 第11章 一骑红尘江湖笑,TensorFlow谷歌造
  • 11.1 TensorFlow概述
  • 11.2 深度学习框架比较
  • 11.2.1 Theano
  • 11.2.2 Keras
  • 11.2.3 Caffe
  • 11.2.4 PyTorch
  • 11.3 TensorFlow的安装
  • 11.3.1 Anaconda的安装
  • 11.3.2 TensorFlow的CPU版本安装
  • 11.3.3 TensorFlow的源码编译
  • 11.4 Jupyter Notebook的使用
  • 11.4.1 Jupyter Notebook的由来
  • 11.4.2 Jupyter Notebook的安装
  • 11.5 TensorFlow中的基础语法
  • 11.5.1 什么是数据流图
  • 11.5.2 构建第一个TensorFlow数据流图
  • 11.5.3 可视化展现的TensorBoard
  • 11.5.4 TensorFlow的张量思维
  • 11.5.5 TensorFlow中的数据类型
  • 11.5.6 TensorFlow中的操作类型
  • 11.5.7 TensorFlow中的Graph对象
  • 11.5.8 TensorFlow中的Session
  • 11.5.9 TensorFlow中的placeholder
  • 11.5.10 TensorFlow中的Variable对象
  • 11.5.11 TensorFlow中的名称作用域
  • 11.5.12 张量的Reduce方向
  • 11.6 手写数字识别MNIST
  • 11.6.1 MNIST数据集简介
  • 11.6.2 MNIST数据的获取与预处理
  • 11.6.3 分类模型的构建—Softmax Regression
  • 11.7 TensorFlow中的Eager执行模式
  • 11.7.1 Eager执行模式的背景
  • 11.7.2 Eager执行模式的安装
  • 11.7.3 Eager执行模式的案例
  • 11.7.4 Eager执行模式的MNIST模型构建
  • 11.8 本章小结
  • 11.9 请你思考
  • 第12章 全面连接困何处,卷积网络显神威
  • 12.1 卷积神经网络的历史
  • 12.1.1 眼在何方?路在何方?
  • 12.1.2 卷积神经网络的历史脉络
  • 12.1.3 那场著名的学术赌局
  • 12.2 卷积神经网络的概念
  • 12.2.1 卷积的数学定义
  • 12.2.2 生活中的卷积
  • 12.3 图像处理中的卷积
  • 12.3.1 计算机“视界”中的图像
  • 12.3.2 什么是卷积核
  • 12.3.3 卷积在图像处理中的应用
  • 12.4 卷积神经网络的结构
  • 12.5 卷积层要义
  • 12.5.1 卷积层的设计动机
  • 12.5.2 卷积层的局部连接
  • 12.5.3 卷积层的3个核心概念
  • 12.6 细说激活层
  • 12.6.1 两个看似闲扯的问题
  • 12.6.2 追寻问题的本质
  • 12.6.3 ReLU的理论基础
  • 12.6.4 ReLU的不足之处
  • 12.7 详解池化层
  • 12.8 勿忘全连接层
  • 12.9 本章小结
  • 12.10 请你思考
  • 第13章 纸上谈兵终觉浅,绝知卷积要编程
  • 13.1 TensorFlow的CNN架构
  • 13.2 卷积层的实现
  • 13.2.1 TensorFlow中的卷积函数
  • 13.2.2 图像处理中的常用卷积核
  • 13.3 激活函数的使用
  • 13.3.1 Sigmoid函数
  • 13.3.2 Tanh函数
  • 13.3.3 修正线性单元——ReLU
  • 13.3.4 Dropout函数
  • 13.4 池化层的实现
  • 13.5 规范化层
  • 13.5.1 为什么需要规范化
  • 13.5.2 局部响应规范化
  • 13.5.3 批规范化
  • 13.6 卷积神经网络在MNIST分类器中的应用
  • 13.6.1 数据读取
  • 13.6.2 初始化权值和偏置
  • 13.6.3 卷积和池化
  • 13.6.4 构建第一个卷积层
  • 13.6.5 构建第二个卷积层
  • 13.6.6 实现全连接层
  • 13.6.7 实现Dropout层
  • 13.6.8 实现Readout层
  • 13.6.9 参数训练与模型评估
  • 13.7 经典神经网络——AlexNet的实现
  • 13.7.1 AlexNet的网络架构
  • 13.7.2 数据读取
  • 13.7.3 初始化权值和偏置
  • 13.7.4 卷积和池化
  • 13.7.5 局部响应归一化层
  • 13.7.6 构建卷积层
  • 13.7.7 实现全连接层和Dropout层
  • 13.7.8 实现Readout层
  • 13.7.9 参数训练与模型评估
  • 13.8 本章小结
  • 13.9 请你思考
  • 第14章 循环递归RNN,序列建模套路深
  • 14.1 你可能不具备的一种思维
  • 14.2 标准神经网络的缺陷所在
  • 14.3 RNN简史
  • 14.3.1 Hopfield网络
  • 14.3.2 Jordan递归神经网络
  • 14.3.3 Elman递归神经网络
  • 14.3.4 RNN的应用领域
  • 14.4 RNN的理论基础
  • 14.4.1 Elman递归神经网络
  • 14.4.2 循环神经网络的生物学机理
  • 14.5 RNN的结构
  • 14.6 循环神经网络的训练
  • 14.6.1 问题建模
  • 14.6.2 确定优化目标函数
  • 14.6.3 参数求解
  • 14.7 基于RNN的TensorFlow实战——正弦序列预测
  • 14.7.1 生成数据
  • 14.7.2 定义权值和偏置
  • 14.7.3 前向传播
  • 14.7.4 定义损失函数
  • 14.7.5 参数训练与模型评估
  • 14.8 本章小结
  • 14.9 请你思考
  • 第15章 LSTM长短记,长序依赖可追忆
  • 15.1 遗忘是好事还是坏事
  • 15.2 施密德胡伯是何人
  • 15.3 为什么需要LSTM
  • 15.4 拆解LSTM
  • 15.4.1 传统RNN的问题所在
  • 15.4.2 改造的神经元
  • 15.5 LSTM的前向计算
  • 15.5.1 遗忘门
  • 15.5.2 输入门
  • 15.5.3 候选门
  • 15.5.4 输出门
  • 15.6 LSTM的训练流程
  • 15.7 自然语言处理的一个假设
  • 15.8 词向量表示方法
  • 15.8.1 独热编码表示
  • 15.8.2 分布式表示
  • 15.8.3 词嵌入表示
  • 15.9 自然语言处理的统计模型
  • 15.9.1 NGram模型
  • 15.9.2 基于神经网络的语言模型
  • 15.9.3 基于循环神经网络的语言模型
  • 15.9.4 LSTM语言模型的正则化
  • 15.10 基于Penn Tree Bank的自然语言处理实战
  • 15.10.1 下载及准备PTB数据集
  • 15.10.2 导入基本包
  • 15.10.3 定义相关的参数
  • 15.10.4 语言模型的实现
  • 15.10.5 训练并返回perplexity值
  • 15.10.6 定义主函数并运行
  • 15.10.7 运行结果
  • 15.11 本章小结
  • 15.12 请你思考
  • 第16章 卷积网络虽动人,胶囊网络更传“神”
  • 16.1 从神经元到神经胶囊
  • 16.2 卷积神经网络面临的挑战
  • 16.3 神经胶囊的提出
  • 16.4 神经胶囊理论初探
  • 16.4.1 神经胶囊的生物学基础
  • 16.4.2 神经胶囊网络的哲学基础
  • 16.5 神经胶囊的实例化参数
  • 16.6 神经胶囊的工作流程
  • 16.6.1 神经胶囊向量的计算
  • 16.6.2 动态路由的工作机理
  • 16.6.3 判断多数字存在性的边缘损失函数
  • 16.6.4 胶囊神经网络的结构
  • 16.7 CapsNet的验证与实验
  • 16.7.1 重构和预测效果
  • 16.7.2 胶囊输出向量的维度表征意义
  • 16.7.3 重叠图像的分割
  • 16.8 神经胶囊网络的TensorFlow实现
  • 16.8.1 导入基本包及读取数据集
  • 16.8.2 图像输入
  • 16.8.3 卷积层Conv1的实现
  • 16.8.4 PrimaryCaps层的实现
  • 16.8.5 全连接层
  • 16.8.6 路由协议算法
  • 16.8.7 估计实体出现的概率
  • 16.8.8 损失函数的实现
  • 16.8.9 额外设置
  • 16.8.10 训练和评估
  • 16.8.11 运行结果
  • 16.9 本章小结
  • 16.10 请你思考
  • 16.11 深度学习美在何处
  • 后记
  • 索引
展开全部

评分及书评

评分不足
1个评分

出版方

电子工业出版社

电子工业出版社成立于1982年10月,是国务院独资、工信部直属的中央级科技与教育出版社,是专业的信息技术知识集成和服务提供商。经过三十多年的建设与发展,已成为一家以科技和教育出版、期刊、网络、行业支撑服务、数字出版、软件研发、软科学研究、职业培训和教育为核心业务的现代知识服务集团。出版物内容涵盖了电子信息技术的各个分支及工业技术、经济管理、科普与少儿、社科人文等领域,综合出版能力位居全国出版行业前列。