可以朗读
语音朗读
113千字
字数
2021-04-01
发行日期
展开全部
主编推荐语
统计学习为机器学习提供了重要架构,本书兼顾了数学上的理解和代码实践,内容主要包括基础知识和统计模型。
内容简介
第1章、第2章结合VC维介绍过拟合的本质,并介绍手动特征选择的办法;
第3章、第4章从简单的线性模型出发经过概率统计的解读而得到分类和回归算法;
第5章讨论不依赖于假设分布的非参数模型;
第6章介绍将核方法作为一种非线性拓展的技巧,介绍如何将该方法应用到很多算法中,并引出了著名的高斯过程;
第7章以混合高斯作为软分配聚类的代表性方法,从而引出著名的EM算法;
第8章讨论了机器学习的集成算法;
第9章介绍的线性和非线性降维方法将会解决维度灾难问题,并且不同于单纯的特征选择;
第10章讨论不依赖于独立同分布假设的时间序列算法。
本书适合对于统计学习感兴趣的大学生、工程师阅读参考。阅读本书需要具备基础的Python编程技术和基本的数学知识。
目录
- 版权信息
- 内容简介
- 前言
- 第1章 防止过拟合
- 1.1 过拟合和欠拟合的背后
- 1.2 性能度量和损失函数
- 1.3 假设空间和VC维
- 1.4 偏差方差分解的意义
- 1.5 正则化和参数绑定
- 1.6 使用scikit-learn
- 第2章 特征选择
- 2.1 包裹法Warpper
- 2.2 过滤法Filter
- 2.3 嵌入法Embedded
- 2.4 使用scikit-learn
- 第3章 回归算法中的贝叶斯
- 3.1 快速理解判别式模型和生成式模型
- 3.2 极大似然估计和平方损失
- 3.3 最大后验估计和正则化
- 3.4 贝叶斯线性估计
- 3.5 使用scikit-learn
- 第4章 分类算法中的贝叶斯
- 4.1 广义线性模型下的sigmoid函数和softmax函数
- 4.2 对数损失和交叉熵
- 4.3 逻辑回归的多项式拓展和正则化
- 4.4 朴素贝叶斯分类器
- 4.5 拉普拉斯平滑和连续特征取值的处理方法
- 4.6 使用scikit-learn
- 第5章 非参数模型
- 5.1 K近邻与距离度量
- 5.2 K近邻与kd数
- 5.3 决策树和条件熵
- 5.4 决策树的剪枝
- 5.5 连续特征取值的处理方法和基尼指数
- 5.6 回归树
- 5.7 使用scikit-learn
- 第6章 核方法
- 6.1 核方法的本质
- 6.2 对偶表示和拉格朗日乘子法
- 6.3 常见算法的核化拓展
- 6.4 高斯过程
- 6.5 使用scikit-learn
- 第7章 混合高斯:比高斯分布更强大
- 7.1 聚类的重要问题
- 7.2 潜变量与K均值
- 7.3 混合高斯和极大似然估计的失效
- 7.4 EM算法的核心步骤
- 7.5 使用scikit-learn
- 第8章 模型组合策略
- 8.1 Bagging和随机森林
- 8.2 Boosting的基本框架
- 8.3 Adaboost
- 8.4 GBDT和XGBoost
- 8.5 使用scikit-learn
- 第9章 核化降维和学习流形
- 9.1 线性降维
- 9.2 核化线性降维
- 9.3 流形学习
- 9.4 使用scikit-learn
- 第10章 处理时间序列
- 10.1 概率图模型和隐变量
- 10.2 高阶马尔可夫模型
- 10.3 隐马尔可夫模型
- 10.4 隐马尔可夫模型的EM算法
- 10.5 使用scikit-learn
- 参考文献
展开全部
出版方
清华大学出版社
清华大学出版社成立于1980年6月,是由教育部主管、清华大学主办的综合出版单位。植根于“清华”这座久负盛名的高等学府,秉承清华人“自强不息,厚德载物”的人文精神,清华大学出版社在短短二十多年的时间里,迅速成长起来。清华大学出版社始终坚持弘扬科技文化产业、服务科教兴国战略的出版方向,把出版高等学校教学用书和科技图书作为主要任务,并为促进学术交流、繁荣出版事业设立了多项出版基金,逐渐形成了以出版高水平的教材和学术专著为主的鲜明特色,在教育出版领域树立了强势品牌。