安居多伦多
  • 多市生活
    • 多市生活
    • 加国税务
    • 旅游度假
    • 生活安全
    • 行车安全
    • 窍门集锦
  • 多市书苑
    • 热门
    • 小说
    • 教育
  • 家居信息
    • 家居信息
    • 房屋保养
    • 房屋贷款
    • 房屋租赁
    • 房屋建筑
    • 房前屋后
    • 家居风水
  • 健康保健
    • 健康保健
    • 饮食起居
    • 食品安全
    • 健身锻炼
  • 书苑账户
    • 书苑登入
    • 书苑注册
    • 忘记书苑密码
    • 书苑账户信息
    • 关于我们
    • 联系我们
    • 隐私政策
多伦多书苑
在线书籍:随时阅读,随身听书。
所有书籍 | 人文 | 人物 | 人生 | 健康 | 儿童 | 医学 | 历史 | 历史 | 古典 | 哲学宗教 | 商业 | 外国 | 寓言 | 小说 | 教育 | 风水 | 管理 | 语言 |
为使本公益资源网站能继续提供免费阅读,请勿屏蔽广告。谢谢!报告弹出广告被滥用。
  1. 安居多伦多
  2. 网上书苑
  3. IT
  4. Python
  5. Python机器学习手册:从数据预处理到深度学习

Python机器学习手册:从数据预处理到深度学习

2022-02-15 0人点赞 0条评论
点赞
x
语速1.0: 2.0
进度0:

上一页   |   返回目录   |   下一页

9.3 通过最大化类间可分性进行特征降维

问题描述

对特征进行降维操作,然后将其应用于分类器。

解决方案

使用线性判别分析(Linear Discriminant Analysis,LDA)方法,将特征数据映射到一个可以使类间可分性最大的成分坐标轴上。

9.3 通过最大化类间可分性进行特征降维

可以使用参数explained_variance_ratio_来查看每个成分保留的信息量(即数据的差异)的情况。在本解决方案中,单个成分保留了99%的信息量:

9.3 通过最大化类间可分性进行特征降维

讨论

LDA是一种分类方法,也是常用的降维方法。LDA与PCA的原理类似,它将特征空间映射到较低维的空间。然而在PCA中,只需关注使数据差异最大化的成分轴;在LDA中,我们的另一个目标是,找到使得类间差异最大的成分轴。在下图所示的例子中,数据集由具有两个分类、两个特征的数据构成。如果将数据投影到y轴上,那么两类数据将不易分离(互相重叠);而如果将数据投影到x轴上,则只剩下一个特征向量(即降低了一个维度),并且仍然能保持类的可分性。当然,在现实世界中,分类之间的关系会更加复杂,维度也会更高,但概念是一样的。

9.3 通过最大化类间可分性进行特征降维

在scikit-learn中,LDA是由LinearDiscriminantAnalysis方法实现的,其中包含一个参数n_components,表示需要返回的特征数量。为了找出n_components的最优值(例如,需要保留多少个参数),我们可以参考explain_variance_ratio_的输出,该排序数组表示每个输出的特征所保留的信息量(用方差表示),例如:

9.3 通过最大化类间可分性进行特征降维

具体来说,可以运行LinearDiscriminantAnalysis(将参数n_components设置为None)返回每个成分特征保留的信息量的百分比,然后计算需要多少个成分特征才能保留高于阈值(通常为0.95或0.99)的信息量:

9.3 通过最大化类间可分性进行特征降维

延伸阅读

● 比较LDA和PCA在Iris数据集上的二维映射(http://bit.ly/2Fs4cWe)

●《线性判别分析》(http://bit.ly/2FtiKEL)

上一页   |   返回目录   |   下一页

类似书籍

Python机器学习实践指南
Python机器学习实践指南
Python机器学习——预测分析核心算法
Python机器学习——预测分析核心算法
机器学习实战
机器学习实战
Author:

标签: 暂无
最后更新:2022-02-15
< 上一篇
下一篇 >

本书评论

取消回复

©2021 安居多伦多 - 版权所有

本站由 好事来 Hostlike.com 提供技术支持。