4.5 用户推荐指数
科技
类型
6.2
豆瓣评分
可以朗读
语音朗读
148千字
字数
2010-01-01
发行日期
展开全部
主编推荐语
自早期以来,神经网络就一直是人工智能的支柱。现在,令人兴奋的新技术(例如深度学习和卷积)正在将神经网络带入一个全新的方向。
内容简介
在本书中,作者演示各种现实世界任务中的神经网络,例如图像识别和数据科学。作者研究了当前的神经网络技术,包括ReLU激活、随机梯度下降、交叉熵、正则化、Dropout及可视化等。
目录
- 版权信息
- 版权声明
- 内容提要
- 引言/INTRODUCTION
- 系列图书简介
- 编程语言
- 在线实验环境
- 代码仓库
- 本系列图书计划出版的书籍
- 系列图书出版计划
- 其他资源
- 神经网络介绍
- 背景资料
- 神经网络路线指引
- 本书中使用的数据集
- 资源与支持
- 第1章 神经网络基础
- 1.1 神经元和层
- 1.2 神经元的类型
- 1.2.1 输入和输出神经元
- 1.2.2 隐藏神经元
- 1.2.3 偏置神经元
- 1.2.4 上下文神经元
- 1.2.5 其他神经元名称
- 1.3 激活函数
- 1.3.1 线性激活函数
- 1.3.2 阶跃激活函数
- 1.3.3 S型激活函数
- 1.3.4 双曲正切激活函数
- 1.4 修正线性单元
- 1.4.1 Softmax激活函数
- 1.4.2 偏置扮演什么角色?
- 1.5 神经网络逻辑
- 1.6 本章小结
- 第2章 自组织映射
- 2.1 自组织映射和邻域函数
- 2.1.1 理解邻域函数
- 2.1.2 墨西哥帽邻域函数
- 2.1.3 计算SOM误差
- 2.2 本章小结
- 第3章 霍普菲尔德神经网络和玻尔兹曼机
- 3.1 霍普菲尔德神经网络
- 训练霍普菲尔德神经网络
- 3.2 Hopfield-Tank神经网络
- 3.3 玻尔兹曼机
- 玻尔兹曼机概率
- 3.4 应用玻尔兹曼机
- 3.4.1 旅行商问题
- 3.4.2 优化问题
- 3.4.3 玻尔兹曼机训练
- 3.5 本章小结
- 第4章 前馈神经网络
- 4.1 前馈神经网络结构
- 用于回归的单输出神经网络
- 4.2 计算输出
- 4.3 初始化权重
- 4.4 径向基函数神经网络
- 4.4.1 径向基函数
- 4.4.2 径向基函数神经网络示例
- 4.5 规范化数据
- 4.5.1 1-of-n编码
- 4.5.2 范围规范化
- 4.5.3 分数规范化
- 4.5.4 复杂规范化
- 4.6 本章小结
- 第5章 训练与评估
- 5.1 评估分类
- 5.1.1 二值分类
- 5.1.2 多类分类
- 5.1.3 对数损失
- 5.1.4 多类对数损失
- 5.2 评估回归
- 5.3 模拟退火训练
- 5.4 本章小结
- 第6章 反向传播训练
- 6.1 理解梯度
- 6.1.1 什么是梯度
- 6.1.2 计算梯度
- 6.2 计算输出节点增量
- 6.2.1 二次误差函数
- 6.2.2 交叉熵误差函数
- 6.3 计算剩余节点增量
- 6.4 激活函数的导数
- 6.4.1 线性激活函数的导数
- 6.4.2 Softmax激活函数的导数
- 6.4.3 S型激活函数的导数
- 6.4.4 双曲正切激活函数的导数
- 6.4.5 ReLU激活函数的导数
- 6.5 应用反向传播
- 6.5.1 批量训练和在线训练
- 6.5.2 随机梯度下降
- 6.5.3 反向传播权重更新
- 6.5.4 选择学习率和动量
- 6.5.5 Nesterov动量
- 6.6 本章小结
- 第7章 其他传播训练
- 7.1 弹性传播
- 7.2 RPROP参数
- 7.3 数据结构
- 7.4 理解RPROP
- 7.4.1 确定梯度的符号变化
- 7.4.2 计算权重变化
- 7.4.3 修改更新值
- 7.5 莱文伯格-马夸特算法
- 7.6 黑塞矩阵的计算
- 7.7 具有多个输出的LMA
- 7.8 LMA过程概述
- 7.9 本章小结
- 第8章 NEAT、CPPN和HyperNEAT
- 8.1 NEAT神经网络
- 8.1.1 NEAT突变
- 8.1.2 NEAT交叉
- 8.1.3 NEAT物种形成
- 8.2 CPPN
- CPPN表型
- 8.3 HyperNEAT神经网络
- 8.3.1 HyperNEAT基板
- 8.3.2 HyperNEAT计算机视觉
- 8.4 本章小结
- 第9章 深度学习
- 9.1 深度学习的组成部分
- 9.2 部分标记的数据
- 9.3 修正线性单元
- 9.4 卷积神经网络
- 9.5 神经元Dropout
- 9.6 GPU训练
- 9.7 深度学习工具
- 9.7.1 H2O
- 9.7.2 Theano
- 9.7.3 Lasagne和nolearn
- 9.7.4 ConvNetJS
- 9.8 深度信念神经网络
- 9.8.1 受限玻尔兹曼机
- 9.8.2 训练DBNN
- 9.8.3 逐层采样
- 9.8.4 计算正梯度
- 9.8.5 吉布斯采样
- 9.8.6 更新权重和偏置
- 9.8.7 DBNN反向传播
- 9.8.8 深度信念应用
- 9.9 本章小结
- 第10章 卷积神经网络
- 10.1 LeNet-5
- 10.2 卷积层
- 10.3 最大池层
- 10.4 稠密层
- 10.5 针对MNIST数据集的卷积神经网络
- 10.6 本章小结
- 第11章 剪枝和模型选择
- 11.1 理解剪枝
- 11.1.1 剪枝连接
- 11.1.2 剪枝神经元
- 11.1.3 改善或降低表现
- 11.2 剪枝算法
- 11.3 模型选择
- 11.3.1 网格搜索模型选择
- 11.3.2 随机搜索模型选择
- 11.3.3 其他模型选择技术
- 11.4 本章小结
- 第12章 Dropout和正则化
- 12.1 L1和L2正则化
- 12.1.1 理解L1正则化
- 12.1.2 理解L2正则化
- 12.2 Dropout
- 12.2.1 Dropout层
- 12.2.2 实现Dropout层
- 12.3 使用Dropout
- 12.4 本章小结
- 第13章 时间序列和循环神经网络
- 13.1 时间序列编码
- 13.1.1 为输入和输出神经元编码数据
- 13.1.2 预测正弦波
- 13.2 简单循环神经网络
- 13.2.1 埃尔曼神经网络
- 13.2.2 若当神经网络
- 13.2.3 通过时间的反向传播
- 13.2.4 门控循环单元
- 13.3 本章小结
- 第14章 构建神经网络
- 14.1 评估神经网络
- 14.2 训练参数
- 14.2.1 学习率
- 14.2.2 动量
- 14.2.3 批次大小
- 14.3 常规超参数
- 14.3.1 激活函数
- 14.3.2 隐藏神经元的配置
- 14.4 LeNet-5超参数
- 14.5 本章小结
- 第15章 可视化
- 15.1 混淆矩阵
- 15.1.1 读取混淆矩阵
- 15.1.2 创建混淆矩阵
- 15.2 t-SNE降维
- 15.2.1 t-SNE可视化
- 15.2.2 超越可视化的t-SNE
- 15.3 本章小结
- 第16章 用神经网络建模
- 16.1 Kaggle竞赛
- 16.1.1 挑战赛的经验
- 16.1.2 挑战赛取胜的方案
- 16.1.3 我们在挑战赛中的方案
- 16.2 用深度学习建模
- 16.2.1 神经网络结构
- 16.2.2 装袋多个神经网络
- 16.3 本章小结
- 附录A 示例代码使用说明
- A.1 系列图书简介
- A.2 保持更新
- A.3 获取示例代码
- A.3.1 下载压缩文件
- A.3.2 克隆Git仓库
- A.4 示例代码的内容
- A.5 如何为项目做贡献
- 参考资料
展开全部
出版方
人民邮电出版社
人民邮电出版社是工业和信息化部主管的大型专业出版社,成立于1953年10月1日。人民邮电出版社坚持“立足信息产业、面向现代社会、传播科学知识、服务科教兴国”,致力于通信、计算机、电子技术、教材、少儿、经管、摄影、集邮、旅游、心理学等领域的专业图书出版。