Comment utiliser scikit-learn PCA pour les fonctions de réduction et de savoir quelles fonctionnalités sont jetés

Je suis en train de lancer une ACP sur la matrice de dimensions m × n, où m est le nombre de fonctionnalités et n le nombre d'échantillons.

Supposons que je veuille préserver la nf fonctionnalités avec le maximum de variance. Avec scikit-learn je suis capable de le faire de cette façon:

from sklearn.decomposition import PCA

nf = 100
pca = PCA(n_components=nf)
# X is the matrix transposed (n samples on the rows, m features on the columns)
pca.fit(X)

X_new = pca.transform(X)

Maintenant, je reçois une nouvelle matrice X_new qui a une forme de n x nf. Est-il possible de savoir quelles fonctionnalités ont été mis au rebut ou de la non-uns?

Grâce

  • Fonctionnalité ne sont pas jetés, ils sont projetés à des dimensions plus petites, et supposons que pour révéler des liens intéressants entre les différentes fonctionnalités.
  • Merci Tom, je pensais PCA pourrait être utilisé pour la sélection des fonctionnalités, mais (corrigez si je me trompe), il est seulement utilisé pour remettre à l'échelle les données sur les composantes principales. Comme vous l'avez lu, je pense que je vais fermer la question.
  • Votre matrice de sortie doit être de la forme (n, nf), pas (nf, n).
InformationsquelleAutor gc5 | 2014-04-25