(因为只是複习用,如果非必要,就不解释原理了)
所谓降维-降低维度,在机器学习中,简单说 就是将特徵数量减少
举个例子
在画图时 一个特徵(一维) 我们能记为
两个特徵(二维) 能画为
三维就需要动画呈现 比较好看了
最基础的降维概念,就是将高维度映射到低维度上,就像
本来需要二维才能进行诠释的资料( (x,y) EX:(5,1)、(1,4)...)
变成只需要一维即可诠释
(也就是 有时高维的资料 可以在不损失基本资讯的情况下 使用较少变数进行描述。EX:常用的无监督PCA、有监督LDA,主要是偏重的重点不同,PCA主要是想保留变异量,是依据资料本身的分布,不在乎正确答案怎么分的;但LDA 主要是为了让资料能在降维后,数据点可以满足最好的分类效果,也就是希望映射到低维度(降维)后 组间差异越大越好、组内差异越小越好)
(LDA:组内差异小-很靠近;组间差异大-离较远)
(补充 深度学习的AutoEncoder 与 PCA蛮像的,尤其当自编码器使用线性激活函数并且损失函数为均方误差时,其实就等价于PCA。)