降维
降维完全属于unsupervised learning了,即给定数据集,我们希望降到q维的。从这个角度来讲,降维和聚类还是有相通之处的,都是对于特征的提取。只是一个从行的角度出发,一个对列操作的感觉。
PCA(主成分分析,Principle Component Analysis)
个人觉得这也是起名字起的比较好的模型之一...乍一听起来很有用的感觉 -_-||
1. 求,使得,且最大。
直觉上来讲,就是想寻找一个主方向。
这样,求解问题为:
。所以我们只需要求一阶导数即可。
设A为对称矩阵,则存在正交阵使得,其中为A的特征值矩阵,故(列向量为特征向量)。不失一般性,我们可以排序使得(从大到小排序)。
最大特征值:
同时为x的相关矩阵,,从而
2. 找到(q维的子空间)
将投影到该q维空间,这样,且最小。
A矩阵的范数:
tr表示矩阵的迹(对角线元素和)。
则上述问题等价于,求使得最小。
最小。
即使得最大(注意没有负号)。
称为数据的相似矩阵。
和均为对称阵,且两个阵有相同的特征值。记为A的秩,AA'的特征向量,A'A的特征向量,则,。做奇异值分解,则.
由此,求得的和前述结果等价。
回到PCA。如果降维后需要重构,则,解即可。
3. 对偶PCA。如果即数据非常高的时候,可以转置后再做。
4. KPCA (kernel)PCA也可以先用核函数,即实现非线性的降维。需要注意,降维的过程需要保持可逆。
---------------
PS. PCA不适合解决overfitting的问题。如果需要解决,加regularization项。
14 replies on “统计学习精要(The Elements of Statistical Learning)课堂笔记(二十五):降维和PCA”
上周的machine learning课程讲到PCA,知道干什么,就是不知道原理。。。还没有弄懂svd。。。
奇异值分解?算矩阵特征的。
继续求PDF整理版。。。
最近真没时间 T_T
这个算是完结咯哇?
对呀。
不错,写的非常好,正好也开这本书,对着你笔记,更容易理解。
这学期吴立德老师继续在周五讲课,您有空可以过来指点
5555,我们办公室搬离张江了....木有机会溜过去玩了。
非常好的课堂笔记,真心感谢楼主分享,个人才开始自学这本书,接下来不懂的咱就可以参考lz的笔记了,只是木有找到lz的笔记(一、二、三、七、十二),不知道还有木有?
有的呀,一直没有断啊。你在最下面搜搜“统计学习精要”试试看?
哈哈,总算找齐了,再次感谢lz,以后要经常访问楼主lz的blog,very nice.
终于追到了最后。非常感谢 该系列笔记的一路相伴。
楼主可再细化一些内容么?