人工智能
类型
9.0
豆瓣评分
可以朗读
语音朗读
158千字
字数
2020-01-01
发行日期
展开全部
主编推荐语
本书通俗易懂,详细介绍机器学习四个步骤,适合初学者及高校专业学生。
内容简介
学习并精通任何一门学科无外乎四个步骤:它是什么?它可行吗?如何学它?如何学好它?机器学习也不例外,本书用最简洁、通俗的语言介绍机器学习中的监督式学习。本书第1章介绍“机器学习是什么”,即从定义开始,详细介绍机器学习涉及的知识、数据和性能度量。第2章介绍“机器学习可行吗”,即机器具备学习样本以外的数据的能力。第3章介绍“机器学习如何学”,即机器如何选择出最优模型。作者在这3章的写作上花费的时间最多,光这3章的内容就绝对会让读者有所收获。第4~14章介绍“如何学好机器学习”,重点放在机器学习的各类算法和调参技巧上。第15章介绍机器学习中的一些非常实用的经验,包括学习策略、目标设定、误差分析和偏差与方差分析。本书每一章都以通俗的引言开始,吸引读者;以精美的思维图过渡,让读者的学习思路更清晰;以简要的总结结束,让读者巩固所学习的知识。此外,每个知识点都是理论和实践相结合,既有严谨的数学推导,又有多样的代码展示,图文并茂,非常适合机器学习初学者及高校相关专业学生学习。
目录
- 封面
- 前折页
- 书名页
- 版权页
- 前言
- 本书阅读说明
- 目录
- 第1章 机器学习是什么——机器学习定义
- 引言
- 1.1 数据
- 1.1.1 结构型与非结构型数据
- 1.1.2 原始数据与加工
- 1.1.3 样本内数据与样本外数据
- 1.2 机器学习类别
- 1.2.1 有监督学习
- 1.2.2 无监督学习
- 1.2.3 半监督学习
- 1.2.4 增强学习
- 1.2.5 深度学习
- 1.2.6 迁移学习
- 1.3 性能度量
- 1.3.1 误差函数
- 1.3.2 回归度量
- 1.3.3 分类度量
- 1.4 总结
- 参考资料
- 第2章 机器学习可行吗——计算学习理论
- 引言
- 2.1 基础知识
- 2.1.1 二分类
- 2.1.2 对分
- 2.1.3 增长函数
- 2.1.4 突破点
- 2.2 核心推导
- 2.2.1 机器学习可行条件
- 2.2.2 从已知推未知
- 2.2.3 从民意调查到机器学习
- 2.2.4 从单一到有限
- 2.2.5 从有限到无限
- 2.2.6 从无限到有限
- 2.3 结论应用
- 2.3.1 VC不等式
- 2.3.2 VC维度
- 2.3.3 模型复杂度
- 2.3.4 样本复杂度
- 2.4 总结
- 参考资料
- 技术附录
- 第3章 机器学习怎么学——模型评估选择
- 引言
- 3.1 模型评估
- 3.2 训练误差和测试误差
- 3.2.1 训练误差
- 3.2.2 真实误差
- 3.2.3 测试误差
- 3.2.4 学习理论
- 3.3 验证误差和交叉验证误差
- 3.3.1 验证误差
- 3.3.2 交叉验证误差
- 3.3.3 学习理论
- 3.4 误差剖析
- 3.4.1 误差来源
- 3.4.2 偏差—方差权衡
- 3.5 模型选择
- 3.6 总结
- 参考资料
- 技术附录
- 第4章 线性回归
- 引言
- 4.1 基础知识
- 4.1.1 标量微积分
- 4.1.2 向量微积分
- 4.2 模型介绍
- 4.2.1 核心问题
- 4.2.2 通用线性回归模型
- 4.2.3 特征缩放
- 4.2.4 学习率设定
- 4.2.5 数值算法比较
- 4.2.6 代码实现
- 4.3 总结
- 参考资料
- 第5章 对率回归
- 引言
- 5.1 基础内容
- 5.1.1 联系函数
- 5.1.2 函数绘图
- 5.2 模型介绍
- 5.2.1 核心问题
- 5.2.2 查准和查全
- 5.2.3 类别不平衡
- 5.2.4 线性不可分
- 5.2.5 多分类问题
- 5.2.6 代码实现
- 5.3 总结
- 参考资料
- 第6章 正则化回归
- 引言
- 6.1 基础知识
- 6.1.1 等值线图
- 6.1.2 坐标下降
- 6.2 模型介绍
- 6.2.1 核心问题
- 6.2.2 模型对比
- 6.2.3 最佳模型
- 6.2.4 代码实现
- 6.3 总结
- 参考资料
- 第7章 支持向量机
- 引言
- 7.1 基础知识
- 7.1.1 向量初体验
- 7.1.2 拉格朗日量
- 7.1.3 原始和对偶
- 7.2 模型介绍
- 7.2.1 硬间隔SVM原始问题
- 7.2.2 硬间隔SVM对偶问题
- 7.2.3 软间隔SVM原始问题
- 7.2.4 软间隔SVM对偶问题
- 7.2.5 空间转换
- 7.2.6 核技巧
- 7.2.7核SVM
- 7.2.8 SMO算法
- 7.2.9 模型选择
- 7.3 总结
- 参考资料
- 技术附录
- 第8章 朴素贝叶斯
- 引言
- 8.1 基础知识
- 8.1.1 两种概率学派
- 8.1.2 两种独立类别
- 8.1.3 两种学习算法
- 8.1.4 两种估计方法
- 8.1.5 两类概率分布
- 8.2 模型介绍
- 8.2.1 问题剖析
- 8.2.2 朴素贝叶斯算法
- 8.2.3 多元伯努利模型
- 8.2.4 多项事件模型
- 8.2.5 高斯判别分析模型
- 8.2.6 多分类问题
- 8.2.7 拉普拉斯校正
- 8.2.8 最大似然估计和最大后验估计
- 8.3 总结
- 参考资料
- 技术附录
- 第9章 决策树
- 引言
- 9.1 基础知识
- 9.1.1 多数规则
- 9.1.2 熵和条件熵
- 9.1.3 信息增益和信息增益比
- 9.1.4 基尼指数
- 9.2 模型介绍
- 9.2.1 二分类决策树
- 9.2.2 多分类决策树
- 9.2.3 连续值分裂
- 9.2.4 欠拟合和过拟合
- 9.2.5 预修剪和后修剪
- 9.2.6 数据缺失
- 9.2.7 代码实现
- 9.3 总结
- 参考资料
- 第10章 人工神经网络
- 引言
- 10.1 基本知识
- 10.1.1 转换函数
- 10.1.2 单输入单层单输出神经网络
- 10.1.3 多输入单层单输出神经网络
- 10.1.4 多输入单层多输出神经网络
- 10.1.5 多输入多层多输出神经网络
- 10.2 模型应用
- 10.2.1 创建神经网络模型
- 10.2.2 回归应用
- 10.2.3 分类应用
- 第11章 正向/反向传播
- 引言
- 11.1 基础知识
- 11.1.1 神经网络元素
- 11.1.2 链式法则
- 11.2 算法介绍
- 11.2.1 正向传播
- 11.2.2 梯度下降
- 11.2.3 反向传播
- 11.2.4 代码实现
- 11.3 总结
- 参考资料
- 技术附录
- 第12章 集成学习
- 引言
- 12.1 结合假设
- 12.1.1 语文和数学
- 12.1.2 准确和多样
- 12.1.3 独裁和民主
- 12.1.4 学习并结合
- 12.2 装袋法
- 12.2.1 基本概念
- 12.2.2 自助采样
- 12.2.3 结合假设
- 12.3 提升法
- 12.3.1 基本概念
- 12.3.2 最优加权
- 12.3.3 结合假设
- 12.4 集成方式
- 12.4.1 同质学习器
- 12.4.2 异质学习器
- 12.5 总结
- 参考资料
- 第13章 随机森林和提升树
- 引言
- 13.1 基础知识
- 13.1.1 分类回归树
- 13.1.2 前向分布算法
- 13.1.3 置换检验
- 13.2 模型介绍
- 13.2.1 随机森林
- 13.2.2 提升树
- 13.2.3 代码实现
- 13.3 总结
- 参考资料
- 第14章 极度梯度提升
- 引言
- 14.1 基础知识
- 14.1.1 树的重定义
- 14.1.2 树的复杂度
- 14.2 模型介绍
- 14.2.1 XGB简介
- 14.2.2 XGB的泛化度
- 14.2.3 XGB的精确度
- 14.2.4 XGB的速度
- 14.2.5 代码实现
- 14.3 总结
- 参考资料
- 第15章 本书总结
- 15.1 正交策略
- 15.2 单值评估指标
- 15.3 偏差和方差
- 15.3.1 理论定义
- 15.3.2 实用定义
- 15.3.3 最优误差
- 15.3.4 两者权衡
- 15.3.5 学习曲线
- 结语
- 后折页
- 封底
展开全部
出版方
电子工业出版社
电子工业出版社成立于1982年10月,是国务院独资、工信部直属的中央级科技与教育出版社,是专业的信息技术知识集成和服务提供商。经过三十多年的建设与发展,已成为一家以科技和教育出版、期刊、网络、行业支撑服务、数字出版、软件研发、软科学研究、职业培训和教育为核心业务的现代知识服务集团。出版物内容涵盖了电子信息技术的各个分支及工业技术、经济管理、科普与少儿、社科人文等领域,综合出版能力位居全国出版行业前列。