人工智能
类型
7.6
豆瓣评分
可以朗读
语音朗读
459千字
字数
2018-07-01
发行日期
展开全部
主编推荐语
深度学习入门教程,集各项前沿技术之大成,含Hinton神经胶囊网络的详细解读。
内容简介
深度学习是人工智能的前沿技术。《深度学习之美:AI时代的数据处理与最佳实践》深入浅出地介绍了深度学习的相关理论和实践,《深度学习之美:AI时代的数据处理与最佳实践》共分16章,采用理论和实践双主线写作方式。第1章给出深度学习的大图。第2章和第3章,讲解了机器学习的相关基础理论。第4章和第5章,讲解了Python基础和基于Python的机器学习实战。第6至10章,先后讲解了M-P模型、感知机、多层神经网络、BP神经网络等知识。第11章讲解了被广泛认可的深度学习框架TensorFlow。第12章和第13章详细讲解了卷积神经网络,并给出了相关的实战项目。第14章和第15章,分别讲解了循环递归网络和长短期记忆(LSTM)网络。第16章讲解了神经胶囊网络,并给出了神经胶囊网络设计的详细论述和实践案例分析。
《深度学习之美:AI时代的数据处理与最佳实践》结构完整、行文流畅,是一本难得的零基础入门、图文并茂、通俗易懂、理论结合实战的深度学习书籍。
目录
- 版权信息
- 内容简介
- 推荐序一 通俗也是一种美德
- 推荐序二 技术,也可以“美”到极致
- 自序 深度学习的浅度梦想
- 读者服务
- 第1章 一入侯门“深”似海,深度学习深几许
- 1.1 深度学习的巨大影响
- 1.2 什么是学习
- 1.3 什么是机器学习
- 1.4 机器学习的4个象限
- 1.5 什么是深度学习
- 1.6 “恋爱”中的深度学习
- 1.7 深度学习的方法论
- 1.8 有没有浅层学习
- 1.9 本章小结
- 1.10 请你思考
- 第2章 人工“碳”索意犹尽,智能“硅”来未可知
- 2.1 信数据者得永生吗
- 2.2 人工智能的“江湖定位”
- 2.3 深度学习的归属
- 2.4 机器学习的形式化定义
- 2.5 为什么要用神经网络
- 2.6 人工神经网络的特点
- 2.7 什么是通用近似定理
- 2.8 本章小结
- 2.9 请你思考
- 第3章 “机器学习”三重门,“中庸之道”趋若人
- 3.1 监督学习
- 3.1.1 感性认知监督学习
- 3.1.2 监督学习的形式化描述
- 3.1.3 k-近邻算法
- 3.2 非监督学习
- 3.2.1 感性认识非监督学习
- 3.2.2 非监督学习的代表—K均值聚类
- 3.3 半监督学习
- 3.4 从“中庸之道”看机器学习
- 3.5 强化学习
- 3.6 本章小结
- 3.7 请你思考
- 第4章 人生苦短对酒歌,我用Python乐趣多
- 4.1 Python概要
- 4.1.1 为什么要用Python
- 4.1.2 Python中常用的库
- 4.2 Python的版本之争
- 4.3 Python环境配置
- 4.3.1 Windows下的安装与配置
- 4.3.2 Mac下的安装与配置
- 4.4 Python编程基础
- 4.4.1 如何运行Python代码
- 4.4.2 代码缩进
- 4.4.3 注释
- 4.4.4 Python中的数据结构
- 4.4.5 函数的设计
- 4.4.6 模块的导入与使用
- 4.4.7 面向对象程序设计
- 4.5 本章小结
- 4.6 请你思考
- 第5章 机器学习终觉浅,Python带我来实践
- 5.1 线性回归
- 5.1.1 线性回归的概念
- 5.1.2 简易线性回归的Python实现详解
- 5.2 k-近邻算法
- 5.2.1 k-近邻算法的三个要素
- 5.2.2 k-近邻算法实战
- 5.2.3 使用scikit-learn实现k-近邻算法
- 5.3 本章小结
- 5.4 请你思考
- 第6章 神经网络不胜语,M-P模型似可寻
- 6.1 M-P神经元模型是什么
- 6.2 模型背后的那些人和事
- 6.3 激活函数是怎样的一种存在
- 6.4 什么是卷积函数
- 6.5 本章小结
- 6.6 请你思考
- 第7章 Hello World感知机,懂你我心才安息
- 7.1 网之初,感知机
- 7.2 感知机名称的由来
- 7.3 感性认识“感知机”
- 7.4 感知机是如何学习的
- 7.5 感知机训练法则
- 7.6 感知机的几何意义
- 7.7 基于Python的感知机实战
- 7.8 感知机的表征能力
- 7.9 本章小结
- 7.10 请你思考
- 第8章 损失函数减肥用,神经网络调权重
- 8.1 多层网络解决“异或”问题
- 8.2 感性认识多层前馈神经网络
- 8.3 是浅而“胖”好,还是深而“瘦”佳
- 8.4 分布式特征表达
- 8.5 丢弃学习与集成学习
- 8.6 现实很丰满,理想很骨感
- 8.7 损失函数的定义
- 8.8 热力学定律与梯度弥散
- 8.9 本章小结
- 8.10 请你思考
- 第9章 山重水复疑无路,最快下降问梯度
- 9.1 “鸟飞派”还飞不
- 9.2 1986年的那篇神作
- 9.3 多层感知机网络遇到的大问题
- 9.4 神经网络结构的设计
- 9.5 再议损失函数
- 9.6 什么是梯度
- 9.7 什么是梯度递减
- 9.8 梯度递减的线性回归实战
- 9.9 什么是随机梯度递减
- 9.10 利用SGD解决线性回归实战
- 9.11 本章小结
- 9.12 请你思考
- 第10章 BP算法双向传,链式求导最缠绵
- 10.1 BP算法极简史
- 10.2 正向传播信息
- 10.3 求导中的链式法则
- 10.4 误差反向传播
- 10.4.1 基于随机梯度下降的BP算法
- 10.4.2 输出层神经元的权值训练
- 10.4.3 隐含层神经元的权值训练
- 10.4.4 BP算法的感性认知
- 10.4.5 关于BP算法的补充说明
- 10.5 BP算法实战详细解释
- 10.5.1 初始化网络
- 10.5.2 信息前向传播
- 10.5.3 误差反向传播
- 10.5.4 训练网络(解决异或问题)
- 10.5.5 利用BP算法预测小麦品种的分类
- 10.6 本章小结
- 10.7 请你思考
- 第11章 一骑红尘江湖笑,TensorFlow谷歌造
- 11.1 TensorFlow概述
- 11.2 深度学习框架比较
- 11.2.1 Theano
- 11.2.2 Keras
- 11.2.3 Caffe
- 11.2.4 PyTorch
- 11.3 TensorFlow的安装
- 11.3.1 Anaconda的安装
- 11.3.2 TensorFlow的CPU版本安装
- 11.3.3 TensorFlow的源码编译
- 11.4 Jupyter Notebook的使用
- 11.4.1 Jupyter Notebook的由来
- 11.4.2 Jupyter Notebook的安装
- 11.5 TensorFlow中的基础语法
- 11.5.1 什么是数据流图
- 11.5.2 构建第一个TensorFlow数据流图
- 11.5.3 可视化展现的TensorBoard
- 11.5.4 TensorFlow的张量思维
- 11.5.5 TensorFlow中的数据类型
- 11.5.6 TensorFlow中的操作类型
- 11.5.7 TensorFlow中的Graph对象
- 11.5.8 TensorFlow中的Session
- 11.5.9 TensorFlow中的placeholder
- 11.5.10 TensorFlow中的Variable对象
- 11.5.11 TensorFlow中的名称作用域
- 11.5.12 张量的Reduce方向
- 11.6 手写数字识别MNIST
- 11.6.1 MNIST数据集简介
- 11.6.2 MNIST数据的获取与预处理
- 11.6.3 分类模型的构建—Softmax Regression
- 11.7 TensorFlow中的Eager执行模式
- 11.7.1 Eager执行模式的背景
- 11.7.2 Eager执行模式的安装
- 11.7.3 Eager执行模式的案例
- 11.7.4 Eager执行模式的MNIST模型构建
- 11.8 本章小结
- 11.9 请你思考
- 第12章 全面连接困何处,卷积网络显神威
- 12.1 卷积神经网络的历史
- 12.1.1 眼在何方?路在何方?
- 12.1.2 卷积神经网络的历史脉络
- 12.1.3 那场著名的学术赌局
- 12.2 卷积神经网络的概念
- 12.2.1 卷积的数学定义
- 12.2.2 生活中的卷积
- 12.3 图像处理中的卷积
- 12.3.1 计算机“视界”中的图像
- 12.3.2 什么是卷积核
- 12.3.3 卷积在图像处理中的应用
- 12.4 卷积神经网络的结构
- 12.5 卷积层要义
- 12.5.1 卷积层的设计动机
- 12.5.2 卷积层的局部连接
- 12.5.3 卷积层的3个核心概念
- 12.6 细说激活层
- 12.6.1 两个看似闲扯的问题
- 12.6.2 追寻问题的本质
- 12.6.3 ReLU的理论基础
- 12.6.4 ReLU的不足之处
- 12.7 详解池化层
- 12.8 勿忘全连接层
- 12.9 本章小结
- 12.10 请你思考
- 第13章 纸上谈兵终觉浅,绝知卷积要编程
- 13.1 TensorFlow的CNN架构
- 13.2 卷积层的实现
- 13.2.1 TensorFlow中的卷积函数
- 13.2.2 图像处理中的常用卷积核
- 13.3 激活函数的使用
- 13.3.1 Sigmoid函数
- 13.3.2 Tanh函数
- 13.3.3 修正线性单元——ReLU
- 13.3.4 Dropout函数
- 13.4 池化层的实现
- 13.5 规范化层
- 13.5.1 为什么需要规范化
- 13.5.2 局部响应规范化
- 13.5.3 批规范化
- 13.6 卷积神经网络在MNIST分类器中的应用
- 13.6.1 数据读取
- 13.6.2 初始化权值和偏置
- 13.6.3 卷积和池化
- 13.6.4 构建第一个卷积层
- 13.6.5 构建第二个卷积层
- 13.6.6 实现全连接层
- 13.6.7 实现Dropout层
- 13.6.8 实现Readout层
- 13.6.9 参数训练与模型评估
- 13.7 经典神经网络——AlexNet的实现
- 13.7.1 AlexNet的网络架构
- 13.7.2 数据读取
- 13.7.3 初始化权值和偏置
- 13.7.4 卷积和池化
- 13.7.5 局部响应归一化层
- 13.7.6 构建卷积层
- 13.7.7 实现全连接层和Dropout层
- 13.7.8 实现Readout层
- 13.7.9 参数训练与模型评估
- 13.8 本章小结
- 13.9 请你思考
- 第14章 循环递归RNN,序列建模套路深
- 14.1 你可能不具备的一种思维
- 14.2 标准神经网络的缺陷所在
- 14.3 RNN简史
- 14.3.1 Hopfield网络
- 14.3.2 Jordan递归神经网络
- 14.3.3 Elman递归神经网络
- 14.3.4 RNN的应用领域
- 14.4 RNN的理论基础
- 14.4.1 Elman递归神经网络
- 14.4.2 循环神经网络的生物学机理
- 14.5 RNN的结构
- 14.6 循环神经网络的训练
- 14.6.1 问题建模
- 14.6.2 确定优化目标函数
- 14.6.3 参数求解
- 14.7 基于RNN的TensorFlow实战——正弦序列预测
- 14.7.1 生成数据
- 14.7.2 定义权值和偏置
- 14.7.3 前向传播
- 14.7.4 定义损失函数
- 14.7.5 参数训练与模型评估
- 14.8 本章小结
- 14.9 请你思考
- 第15章 LSTM长短记,长序依赖可追忆
- 15.1 遗忘是好事还是坏事
- 15.2 施密德胡伯是何人
- 15.3 为什么需要LSTM
- 15.4 拆解LSTM
- 15.4.1 传统RNN的问题所在
- 15.4.2 改造的神经元
- 15.5 LSTM的前向计算
- 15.5.1 遗忘门
- 15.5.2 输入门
- 15.5.3 候选门
- 15.5.4 输出门
- 15.6 LSTM的训练流程
- 15.7 自然语言处理的一个假设
- 15.8 词向量表示方法
- 15.8.1 独热编码表示
- 15.8.2 分布式表示
- 15.8.3 词嵌入表示
- 15.9 自然语言处理的统计模型
- 15.9.1 NGram模型
- 15.9.2 基于神经网络的语言模型
- 15.9.3 基于循环神经网络的语言模型
- 15.9.4 LSTM语言模型的正则化
- 15.10 基于Penn Tree Bank的自然语言处理实战
- 15.10.1 下载及准备PTB数据集
- 15.10.2 导入基本包
- 15.10.3 定义相关的参数
- 15.10.4 语言模型的实现
- 15.10.5 训练并返回perplexity值
- 15.10.6 定义主函数并运行
- 15.10.7 运行结果
- 15.11 本章小结
- 15.12 请你思考
- 第16章 卷积网络虽动人,胶囊网络更传“神”
- 16.1 从神经元到神经胶囊
- 16.2 卷积神经网络面临的挑战
- 16.3 神经胶囊的提出
- 16.4 神经胶囊理论初探
- 16.4.1 神经胶囊的生物学基础
- 16.4.2 神经胶囊网络的哲学基础
- 16.5 神经胶囊的实例化参数
- 16.6 神经胶囊的工作流程
- 16.6.1 神经胶囊向量的计算
- 16.6.2 动态路由的工作机理
- 16.6.3 判断多数字存在性的边缘损失函数
- 16.6.4 胶囊神经网络的结构
- 16.7 CapsNet的验证与实验
- 16.7.1 重构和预测效果
- 16.7.2 胶囊输出向量的维度表征意义
- 16.7.3 重叠图像的分割
- 16.8 神经胶囊网络的TensorFlow实现
- 16.8.1 导入基本包及读取数据集
- 16.8.2 图像输入
- 16.8.3 卷积层Conv1的实现
- 16.8.4 PrimaryCaps层的实现
- 16.8.5 全连接层
- 16.8.6 路由协议算法
- 16.8.7 估计实体出现的概率
- 16.8.8 损失函数的实现
- 16.8.9 额外设置
- 16.8.10 训练和评估
- 16.8.11 运行结果
- 16.9 本章小结
- 16.10 请你思考
- 16.11 深度学习美在何处
- 后记
- 索引
展开全部
出版方
电子工业出版社
电子工业出版社成立于1982年10月,是国务院独资、工信部直属的中央级科技与教育出版社,是专业的信息技术知识集成和服务提供商。经过三十多年的建设与发展,已成为一家以科技和教育出版、期刊、网络、行业支撑服务、数字出版、软件研发、软科学研究、职业培训和教育为核心业务的现代知识服务集团。出版物内容涵盖了电子信息技术的各个分支及工业技术、经济管理、科普与少儿、社科人文等领域,综合出版能力位居全国出版行业前列。