Validation croisée 10 fois
En k fois nous avons ceci:
vous diviser les données en k sous-ensembles de
(environ) taille égale. Vous vous entraînez sur le net k fois, laissant à chaque fois
l'un des sous-ensembles de la formation, mais en utilisant seulement le sous-ensemble à omis
calculer quelle que soit l'erreur critère qui vous intéresse. Si k est égal à l'exemple de
la taille, ceci est appelé "leave-one-out cross-validation. "Laissez-v-out" est un
plus complexe et coûteuse version de la validation croisée qui implique
laissant de côté tous les sous-ensembles possibles de v cas.
ce que le Terme de formation et de tests veux dire?Je ne peux pas comprendre.
voulez-vous me dire quelques références où je peux apprendre de cet algorithme avec un exemple?
Train classifier on folds: 2 3 4 5 6 7 8 9 10; Test against fold: 1
Train classifier on folds: 1 3 4 5 6 7 8 9 10; Test against fold: 2
Train classifier on folds: 1 2 4 5 6 7 8 9 10; Test against fold: 3
Train classifier on folds: 1 2 3 5 6 7 8 9 10; Test against fold: 4
Train classifier on folds: 1 2 3 4 6 7 8 9 10; Test against fold: 5
Train classifier on folds: 1 2 3 4 5 7 8 9 10; Test against fold: 6
Train classifier on folds: 1 2 3 4 5 6 8 9 10; Test against fold: 7
Train classifier on folds: 1 2 3 4 5 6 7 9 10; Test against fold: 8
Train classifier on folds: 1 2 3 4 5 6 7 8 10; Test against fold: 9
Train classifier on folds: 1 2 3 4 5 6 7 8 9; Test against fold: 10
source d'informationauteur Nickool
Vous devez vous connecter pour publier un commentaire.
En bref:
Formation est le processus de rétroaction de l'algorithme afin d'ajuster la puissance prédictive du classificateur(s) de ce produit.
Tests est le processus de détermination de l'exactitude réaliste du classificateur(s) qui ont été produites par l'algorithme. Pendant les tests, le classificateur(s) sont donnés à jamais-avant-vu les instances de données pour faire une dernière confirmation que le classificateur la précision n'est pas radicalement différent de celui en cours de formation.
Cependant, il vous manque une étape clé dans le milieu: la validation (qui est ce que vous faites allusion à l'10 fois/k-fold cross validation).
Validation est (généralement) sont effectuées après chaque étape, et c'est réalisé afin d'aider à déterminer si le classificateur est surajusté ne peut. L'étape de validation ne permet pas de fournir de la rétroaction à l'algorithme afin d'ajuster le classificateur, mais il aide à déterminer si le surajustement est en cours et il le signale lors de la formation devrait être terminé.
Penser le processus de la manière suivante:
En k-fold méthode, vous devez diviser les données en k segments, k-1 d'entre eux sont utilisés pour la formation, alors que l'on est de gauche et utilisées pour les tests. Il est fait k fois, la première fois, le premier segment est utilisé pour les tests, et les restants sont utilisés pour la formation, puis le deuxième segment est utilisé pour les tests, et les restants sont utilisés pour la formation, et ainsi de suite. Il est clair à partir de votre exemple de 10 fois, alors il doit être simple, de lire de nouveau.
Maintenant au sujet de ce qu'est l'entraînement et de ce test est:
De formation dans le classement est la partie où un modèle de classification est créé, en utilisant un algorithme, des algorithmes populaires pour la création de modèles de formation sont ID3, C4.5 etc.
Des moyens d'essai pour évaluer le modèle de classification en exécutant le modèle sur les données de test, puis en créant une confusion de la matrice, puis à calculer la précision et le taux d'erreur du modèle.
En K-fold méthode, k les modèles sont créés (comme ressort de la description ci-dessus) et le modèle le plus précis pour la classification est sélectionné.