属性约简与尺寸减小

时间:2018-05-10 13:35:37

标签: machine-learning dimensionality-reduction

属性约简和降维有什么区别?

与尺寸缩减相比,哪些方法被认为是属性约简技术?

1 个答案:

答案 0 :(得分:1)

我不知道机器学习中的“属性减少”一词。你能提供一个链接吗?

另一方面,一些论文use the term 'attribute selection'引用特征选择

特征选择是一种特殊类型的降维,其中生成的特征集必须是原始特征的子集。重要的是,这意味着除了包含或排除之外,这些特征没有以任何方式被转换或改变。<​​/ p>

一般降维通常通过首先将输入要素转换为新的表示,例如通过使用与PCA维度对应的坐标转换,或者首先通过将数据投影到新空间(可能更高的维度)来实现。一个内核函数,然后使用一些信息量来修剪掉那个新空间中的特征。

维度降低还可以涉及更简单的转换,例如由于观察到的共线性而将输入特征向量的多个分量平均在一起。即使转换过于简单化(取平均值),它仍然与特征选择的不同之处在于新特征不是原始特征的子集。

总之,主要区别在于功能选择除了丢弃原始输入的一些信息量较少的功能外,不会改变任何东西。它保留其余功能而不做任何更改。维度缩减转换数据,最终表示可能与原始输入要素完全不同(甚至与维度不同)。