科技
类型
8.5
豆瓣评分
可以朗读
语音朗读
245千字
字数
2019-03-01
发行日期
展开全部
主编推荐语
一本场景式的机器学习实践书。
内容简介
本书试图用通俗的语言讲解涵盖算法模型的机器学习,主要内容包括机器学习通用概念、三个基本科学计算工具、有监督学习、聚类模型、降维模型、隐马尔可夫模型、贝叶斯网络、自然语言处理、深度学习、强化学习、模型迁移等。
本书在深入浅出地解析模型与算法之后,介绍使用Python相关工具进行开发的方法、解析经典案例,使读者做到“能理解、能设计、能编码、能调试”,没有任何专业基础的读者在学习本书后也能够上手设计与开发机器学习产品。
目录
- 版权信息
- 其他
- 前言
- 第1章 机器学习基础
- 1.1 引言
- 1.1.1 为什么使用机器学习
- 1.1.2 机器学习与数据挖掘
- 1.1.3 机器学习与人工智能
- 1.2 机器学习的一般流程
- 1.2.1 定义问题
- 1.2.2 收集数据
- 1.2.3 比较算法与模型
- 1.2.4 应用模型
- 1.3 学习策略
- 1.3.1 有监督学习
- 1.3.2 无监督学习
- 1.3.3 强化学习
- 1.3.4 综合模型与工具
- 1.4 评估理论
- 1.4.1 划分数据集
- 1.4.2 交叉验证
- 1.4.3 评估指标
- 1.4.4 拟合不足与过度拟合
- 1.5 本章内容回顾
- 第2章 Python基础工具
- 2.1 Numpy
- 2.1.1 Numpy与Scipy的分工
- 2.1.2 ndarray构造
- 2.1.3 数据类型
- 2.1.4 访问与修改
- 2.1.5 轴
- 2.1.6 维度操作
- 2.1.7 合并与拆分
- 2.1.8 增与删
- 2.1.9 全函数
- 2.1.10 广播
- 2.2 Matplot
- 2.2.1 点线图
- 2.2.2 子视图
- 2.2.3 图像
- 2.2.4 等值图
- 2.2.5 三维绘图
- 2.2.6 从官网学习
- 2.3 Scipy
- 2.3.1 数学与物理常数
- 2.3.2 特殊函数库
- 2.3.3 积分
- 2.3.4 优化
- 2.3.5 插值
- 2.3.6 离散傅里叶
- 2.3.7 卷积
- 2.3.8 线性分析
- 2.3.9 概率统计
- 2.4 本章内容回顾
- 第3章 有监督学习:分类与回归
- 3.1 线性回归
- 3.1.1 何谓线性模型
- 3.1.2 最小二乘法
- 3.1.3 最小二乘法的不足
- 3.1.4 岭回归
- 3.1.5 Lasso回归
- 3.2 梯度下降
- 3.2.1 假设函数与损失函数
- 3.2.2 随机梯度下降
- 3.2.3 实战:SGDRegressor和SGDClassifier
- 3.2.4 增量学习
- 3.3 支持向量机
- 3.3.1 最优超平面
- 3.3.2 软间隔
- 3.3.3 线性不可分问题
- 3.3.4 核函数
- 3.3.5 实战:scikit-learn中的SVM
- 3.4 朴素贝叶斯分类
- 3.4.1 基础概率
- 3.4.2 贝叶斯分类原理
- 3.4.3 高斯朴素贝叶斯
- 3.4.4 多项式朴素贝叶斯
- 3.4.5 伯努利朴素贝叶斯
- 3.5 高斯过程
- 3.5.1 随机过程
- 3.5.2 无限维高斯分布
- 3.5.3 实战:gaussian_process工具包
- 3.6 决策树
- 3.6.1 最易于理解的模型
- 3.6.2 熵的作用
- 3.6.3 实战:DecisionTreeClassifier与DecisionTreeRegressor
- 3.6.4 树的可视化
- 3.7 集成学习
- 3.7.1 偏差与方差
- 3.7.2 随机森林
- 3.7.3 自适应增强
- 3.8 综合话题
- 3.8.1 参数与非参数学习
- 3.8.2 One-Vs-All与One-Vs-One
- 3.8.3 评估工具
- 3.8.4 超参数调试
- 3.8.5 多路输出
- 3.9 本章内容回顾
- 第4章 无监督学习:聚类
- 4.1 动机
- 4.2 K-means
- 4.2.1 算法
- 4.2.2 实战:scikit-learn聚类调用
- 4.2.3 如何选择K值
- 4.3 近邻算法
- 4.3.1 生活化的理解
- 4.3.2 有趣的迭代
- 4.3.3 实战:AffinityPropagation类
- 4.4 高斯混合模型
- 4.4.1 中心极限定理
- 4.4.2 最大似然估计
- 4.4.3 几种协方差矩阵类型
- 4.4.4 实战:GaussianMixture类
- 4.5 密度聚类
- 4.5.1 凸数据集
- 4.5.2 密度算法
- 4.5.3 实战:DBSCAN类
- 4.6 BIRCH
- 4.6.1 层次模型综述
- 4.6.2 聚类特征树
- 4.6.3 实战:BIRCH相关调用
- 4.7 距离计算
- 4.7.1 闵氏距离
- 4.7.2 马氏距离
- 4.7.3 余弦相似度
- 4.7.4 时间序列比较
- 4.7.5 杰卡德相似度
- 4.8 聚类评估
- 4.9 本章内容回顾
- 第5章 无监督学习:数据降维
- 5.1 主成分分析
- 5.1.1 寻找方差最大维度
- 5.1.2 用PCA降维
- 5.1.3 实战:用PCA寻找主成分
- 5.2 线性判别分析
- 5.2.1 双重标准
- 5.2.2 实战:使用LinearDiscriminantAnalysis
- 5.3 多维标度法
- 5.3.1 保留距离信息的线性变换
- 5.3.2 MDS的重要变形
- 5.3.3 实战:使用MDS类
- 5.4 流形学习之Isomap
- 5.4.1 什么是流形
- 5.4.2 测地线距离
- 5.4.3 实战:使用Isomap类
- 5.5 流形学习之局部嵌入
- 5.5.1 局部线性嵌入
- 5.5.2 拉普拉斯特征映射(LE)
- 5.5.3 调用介绍
- 5.5.4 谱聚类
- 5.6 流形学习之t-SNE
- 5.6.1 用Kullback-Leiber衡量分布相似度
- 5.6.2 为什么是t-分布
- 5.6.3 实战:使用TSNE类
- 5.7 实战:降维模型之比较
- 5.8 本章内容回顾
- 第6章 隐马尔可夫模型
- 6.1 场景建模
- 6.1.1 两种状态链
- 6.1.2 两种概率
- 6.1.3 三种问题
- 6.1.4 hmmLearn介绍
- 6.2 离散型分布算法与应用
- 6.2.1 前向算法与后向算法
- 6.2.2 MultinomialNB求估计问题
- 6.2.3 Viterbi算法
- 6.2.4 MultinomialNB求解码问题
- 6.2.5 EM算法
- 6.2.6 Baum-Welch算法
- 6.2.7 用hmmLearn训练数据
- 6.3 连续型概率分布
- 6.3.1 多元高斯分布
- 6.3.2 GaussianHMM
- 6.3.3 GMMHMM
- 6.4 实战:股票预测模型
- 6.4.1 数据模型
- 6.4.2 目标
- 6.4.3 训练模型
- 6.4.4 分析模型参数
- 6.4.5 可视化短线预测
- 6.5 本章内容回顾
- 第7章 贝叶斯网络
- 7.1 什么是贝叶斯网络
- 7.1.1 典型贝叶斯问题
- 7.1.2 静态结构
- 7.1.3 联合/边缘/条件概率换算
- 7.1.4 链式法则与变量消元
- 7.2 网络构建
- 7.2.1 网络参数估计
- 7.2.2 启发式搜索
- 7.2.3 Chow-Liu Tree算法
- 7.3 近似推理
- 7.3.1 蒙特卡洛方法
- 7.3.2 马尔可夫链收敛定理
- 7.3.3 MCMC推理框架
- 7.3.4 Gibbs采样
- 7.3.5 变分贝叶斯
- 7.4 利用共轭建模
- 7.4.1 共轭分布
- 7.4.2 隐含变量与显式变量
- 7.5 实战:胸科疾病诊断
- 7.5.1 诊断需求
- 7.5.2 Python概率工具包
- 7.5.3 建立模型
- 7.5.4 MCMC采样分析
- 7.5.5 近似推理
- 7.6 本章内容回顾
- 第8章 自然语言处理
- 8.1 文本建模
- 8.1.1 聊天机器人原理
- 8.1.2 词袋模型
- 8.1.3 访问新闻资源库
- 8.1.4 TF-IDF
- 8.1.5 实战:关键词推举
- 8.2 词汇处理
- 8.2.1 中文分词
- 8.2.2 Word2vec
- 8.2.3 实战:寻找近似词
- 8.3 主题模型
- 8.3.1 三层模型
- 8.3.2 非负矩阵分解
- 8.3.3 潜在语意分析
- 8.3.4 隐含狄利克雷分配
- 8.3.5 实战:使用工具包
- 8.4 实战:用LDA分析新闻库
- 8.4.1 文本预处理
- 8.4.2 训练与显示
- 8.4.3 困惑度调参
- 8.5 本章内容回顾
- 第9章 深度学习
- 9.1 神经网络基础
- 9.1.1 人工神经网络
- 9.1.2 神经元与激活函数
- 9.1.3 反向传播
- 9.1.4 万能网络
- 9.2 TensorFlow核心应用
- 9.2.1 张量
- 9.2.2 开发架构
- 9.2.3 数据管理
- 9.2.4 评估器
- 9.2.5 图与会话
- 9.2.6 逐代(epoch)训练
- 9.2.7 图与统计可视化
- 9.3 卷积神经网络
- 9.3.1 给深度学习一个理由
- 9.3.2 CNN结构发展
- 9.3.3 卷积层
- 9.3.4 池化层
- 9.3.5 ReLU与Softmax
- 9.3.6 Inception与ResNet
- 9.4 优化
- 9.4.1 批次规范化
- 9.4.2 剪枝
- 9.4.3 算法选择
- 9.5 循环神经网络与递归神经网络
- 9.5.1 循环神经网络
- 9.5.2 长短期记忆(LSTM)
- 9.5.3 递归神经网络
- 9.6 前沿精选
- 9.6.1 物件检测模型
- 9.6.2 密连卷积网络
- 9.6.3 胶囊网络
- 9.7 CNN实战:图像识别
- 9.7.1 开源图像库CIFAR
- 9.7.2 项目介绍
- 9.7.3 构建Graph
- 9.7.4 优化与训练
- 9.7.5 运行
- 9.8 RNN实战:写诗机器人
- 9.8.1 语言模型
- 9.8.2 LSTM开发步骤1:网络架构
- 9.8.3 LSTM开发步骤2:数据加载
- 9.8.4 LSTM开发步骤3:搭建TensorFlow Graph
- 9.8.5 LSTM开发步骤4:解析LSTM RNN
- 9.8.6 LSTM开发步骤5:LSTM中的参数
- 9.8.7 LSTM开发步骤6:用sequence_loss计算RNN损失值
- 9.8.8 LSTM开发步骤7:学习速度可调优化器
- 9.8.9 LSTM开发步骤8:训练
- 9.8.10 开始写唐诗
- 9.8.11 写唐诗步骤1:用唐诗语料训练语言模型
- 9.8.12 写唐诗步骤2:作诗
- 9.8.13 写唐诗步骤3:作品举例
- 9.9 本章内容回顾
- 第10章 强化学习
- 10.1 场景与原理
- 10.1.1 借AlphaGo谈人工智能
- 10.1.2 基于价值的算法Q-Learning与Sarsa
- 10.1.3 基于策略的算法
- 10.1.4 基于模型的算法
- 10.2 OpenAI Gym
- 10.2.1 环境调用
- 10.2.2 实战:用Q-Learning开发走迷宫机器人
- 10.3 深度强化学习
- 10.3.1 DQN及改进
- 10.3.2 DPN、DDPG及A3C
- 10.3.3 实战:用DPN训练月球定点登陆
- 10.4 博弈原理
- 10.4.1 深度搜索与广度搜索
- 10.4.2 完美决策
- 10.4.3 蒙特卡洛搜索树
- 10.5 实战:中国象棋版AlphaGo Zero
- 10.5.1 开源版本AlphaGo Zero
- 10.5.2 盘面建模
- 10.5.3 左右互搏
- 10.5.4 MCTS详解
- 10.5.5 DDPG详解
- 10.5.6 运行展示:训练
- 10.5.7 运行展示:查看统计
- 10.5.8 运行展示:当头炮、把马跳
- 10.5.9 运行展示:人机博弈
- 10.6 本章内容回顾
- 第11章 模型迁移
- 11.1 走向移动端
- 11.1.1 Android上的TensorFlow
- 11.1.2 iOS上的CoreML
- 11.2 迁移学习
- 11.2.1 动机
- 11.2.2 训练流程
- 11.3 案例实战:基于TensorFlow Hub的迁移学习开发
- 11.3.1 下载并训练
- 11.3.2 检验学习成果
- 11.3.3 迁移学习开发
- 11.4 本章内容回顾
- 后记
- 反侵权盗版声明
展开全部
出版方
电子工业出版社
电子工业出版社成立于1982年10月,是国务院独资、工信部直属的中央级科技与教育出版社,是专业的信息技术知识集成和服务提供商。经过三十多年的建设与发展,已成为一家以科技和教育出版、期刊、网络、行业支撑服务、数字出版、软件研发、软科学研究、职业培训和教育为核心业务的现代知识服务集团。出版物内容涵盖了电子信息技术的各个分支及工业技术、经济管理、科普与少儿、社科人文等领域,综合出版能力位居全国出版行业前列。