我一直在玩sklearn PCA,它表现得很奇怪。
from sklearn.decomposition import PCA
import numpy as np
identity = np.identity(10)
pca = PCA(n_components=10)
augmented_identity = pca.fit_transform(identity)
np.linalg.norm(identity - augmented_identity)
4.5997749080745738请注意,我将维度的数量设置为10。范数不是应该为0吗?
任何关于它为什么不是的洞察力都会受到赞赏。
发布于 2015-07-09 07:30:48
尽管PCA基于协方差矩阵计算正交分量,但sklearn中PCA的输入是数据矩阵,而不是协方差/相关矩阵。
import numpy as np
from sklearn.decomposition import PCA
# gaussian random variable, 10-dimension, identity cov mat
X = np.random.randn(100000, 10)
pca = PCA(n_components=10)
X_transformed = pca.fit_transform(X)
np.linalg.norm(np.cov(X.T) - np.cov(X_transformed.T))
Out[219]: 0.044691263454134933https://stackoverflow.com/questions/31303839
复制相似问题