PCA 减少????维到????维步骤:
第一步是均值归一化。我们需要计算出所有特征的均值,然后令 ???????? = ???????? − ????????。如果特
征是在不同的数量级上,我们还需要将其除以标准差 ????2。
第二步是计算协方差矩阵(covariance matrix)
(求和上面的n错了,应该是m)
第三步是计算协方差矩阵????的特征向量(eigenvectors):在 Octave 里我们可以利用奇异值分解(singular value decomposition)来求解:
[U, S, V]= svd(sigma)。
对于一个 ???? × ????维度的矩阵,上式中的????是一个具有与数据之间最小投射误差的方向向
量构成的矩阵。如果我们希望将数据从????维降至????维,我们只需要从????中选取前????个向量,获
得一个???? × ????维度的矩阵,我们用????????????????????????????表示,然后通过如下计算获得要求的新特征向量
其中????是???? × 1维的,因此结果为???? × 1维度。注,我们不对方差特征进行处理。
本站文章如无特殊说明,均为本站原创,如若转载,请注明出处:吴恩达机器学习笔记50-主成分分析算法(PCA Algorithm) - Python技术站