安居多伦多
  • 多市生活
    • 多市生活
    • 加国税务
    • 旅游度假
    • 生活安全
    • 行车安全
    • 窍门集锦
  • 多市书苑
    • 热门
    • 小说
    • 教育
  • 家居信息
    • 家居信息
    • 房屋保养
    • 房屋贷款
    • 房屋租赁
    • 房屋建筑
    • 房前屋后
    • 家居风水
  • 健康保健
    • 健康保健
    • 饮食起居
    • 食品安全
    • 健身锻炼
  • 书苑账户
    • 书苑登入
    • 书苑注册
    • 忘记书苑密码
    • 书苑账户信息
    • 关于我们
    • 联系我们
    • 隐私政策
多伦多书苑
在线书籍:随时阅读,随身听书。
所有书籍 | 人文 | 人物 | 人生 | 健康 | 儿童 | 医学 | 历史 | 历史 | 古典 | 哲学宗教 | 商业 | 外国 | 寓言 | 小说 | 教育 | 风水 | 管理 | 语言 |
为使本公益资源网站能继续提供免费阅读,请勿屏蔽广告。谢谢!报告弹出广告被滥用。
  1. 安居多伦多
  2. 网上书苑
  3. IT
  4. Python
  5. Python机器学习——预测分析核心算法

Python机器学习——预测分析核心算法

2022-02-18 0人点赞 0条评论
点赞
x
语速1.0: 2.0
进度0:

上一页   |   返回目录   |   下一页

小结

本章介绍了 Python 实现的集成方法工具包。实例代码展示了使用这些方法针对不同类型的问题构建模型。本章涵盖了回归问题、二分类问题、多类别分类问题,并讨论了一些变化,如何类别属性的编码、分层取样等。这些例子涵盖了可能在实践中遇到的不同问题类型。

这里的例子也展示了集成方法的重要特征:为什么对于数据科学集成方法是首选的原因。集成方法相对易于使用。它们不需要调很多参数。它们可以给出属性的重要性信息,有利于模型开发早期阶段的对比和分析,集成方法通常也可以获得最佳的性能。

本章介绍了相关 Python 工具包的使用。第 6 章的背景知识帮助理解这些参数的设置及其调整。通过观察实例代码中参数的设置,可以帮助尝试使用这些软件包。

在本章的最后对比分析各种算法。集成方法通常可以获得最佳的性能。惩罚回归方法通常比集成方法快,在某些情况下,可以获得接近的性能。

参考文献

1. sklearn documentation for RandomForestRegressor http://scikit-learn.org/stable/modules/generated/sklearn.ensemble.RandomForestRegressor.html

2. Leo Breiman. (2001). “Random Forests.” Machine Learning, 45 (1): 5–32.doi:10.1023/A:10109334043243. J. H. Friedman. “Greedy Function Approximation: A Gradient BoostingMachine,https://statweb.stanford.edu/~jhf/ftp/trebst.pdf

3. J. H. Friedman. “Greedy Function Approximation: A Gradient Boosting Machine,”https://statweb.stanford.edu/~jhf/ftp/trebst.pdf

4. sklearn documentation for RandomForestRegressor, http://scikit-learn.org/stable/modules/generated/sklearn.ensemble.RandomForestRegressor.html

5. L. Breiman, “Bagging predictors,” http://statistics.berkeley.edu/sites/default/files/tech-reports/421.pdf

6. Tin Ho. (1998). “The Random Subspace Method for Constructing DecisionForests.” IEEE Transactions on Pattern Analysis and Machine Intelligence ,20 (8): 832–844.doi:10.1109/34.709601

7. J. H. Friedman. “Greedy Function Approximation: A Gradient BoostingMachine,” https://statweb.stanford.edu/~jhf/ftp/trebst.pdf

8. J. H. Friedman. “Stochastic Gradient Boosting,” https://statweb.stanford.edu/~jhf/ftp/stobst.pdf

9. sklearn documentation for GradientBoostingRegressor, http://scikit-learn.org/stable/modules/generated/sklearn.ensemble.GradientBoostingRegressor.html

10. J. H. Friedman. “Greedy Function Approximation: A Gradient BoostingMachine,” https://statweb.stanford.edu/~jhf/ftp/trebst.pdf

11. J. H. Friedman. “Stochastic Gradient Boosting,”https://statweb.stanford.edu/~jhf/ftp/stobst.pdf

12. J. H. Friedman. “Stochastic Gradient Boosting,” [https://statweb.stanford.edu/~jhf/ftp/stobst.pdf

13. sklearn documentation for RandomForestClassifier, http://scikit-learn.org/stable/modules/generated/sklearn.ensemble.RandomForestClassifier.html

14. sklearn documentation for GradientBoostingClassifier, http://scikit-learn.org/stable/modules/generated/sklearn.ensemble.GradientBoostingClassifier.html

上一页   |   返回目录   |   下一页

类似书籍

机器学习实战
机器学习实战
Python机器学习手册:从数据预处理到深度学习
Python机器学习手册:从数据预处理到深度学习
Python机器学习实践指南
Python机器学习实践指南
Author:

标签: 暂无
最后更新:2022-02-18
< 上一篇
下一篇 >

本书评论

取消回复

©2021 安居多伦多 - 版权所有

本站由 好事来 Hostlike.com 提供技术支持。