XgBoost : Les moins peuplées de la classe en y a seulement 1 membres, ce qui est trop peu

Im en utilisant Xgboost mise en œuvre sur sklearn pour un kaggle de la concurrence.
Cependant, je suis de cet "avertissement" message :

$ python Script1.py
/home/sky/private/virtualenv15.0.1 dev/myVE/local/lib/python2.7/site-packages/sklearn/cross_validation.py:516:

Avertissement: Les moins peuplées de la classe en y a seulement 1 membres, ce qui est trop peu. Le nombre minimum d'étiquettes pour toute la classe ne peut pas être inférieure à n_folds=3.
% (min_labels, de soi.n_folds)), Avertissement)

Selon une autre question sur stackoverflow :
"Vérifiez que vous avez au moins 3 échantillons par classe pour être en mesure de faire StratifiedKFold validation croisée avec k == 3 (je pense que c'est la valeur par défaut CV utilisé par GridSearchCV pour la classification)."

Et bien, je n'ai pas au moins 3 échantillons par classe.

Donc mes questions sont:

a)quelles sont les alternatives?

b) Pourquoi ne puis-je pas utiliser la validation croisée?

c) Que puis-je utiliser à la place?

...
param_test1 = {
    'max_depth': range(3, 10, 2),
    'min_child_weight': range(1, 6, 2)
}

grid_search = GridSearchCV(

estimator=
XGBClassifier(
    learning_rate=0.1,
    n_estimators=3000,
    max_depth=15,
    min_child_weight=1,
    gamma=0,
    subsample=0.8,
    colsample_bytree=0.8,
    objective='multi:softmax',
    nthread=42,
    scale_pos_weight=1,
    seed=27),

    param_grid=param_test1, scoring='roc_auc', n_jobs=42, iid=False, cv=None, verbose=1)
...

grid_search.fit(train_x, place_id)

Références:

One-shot de l'apprentissage avec scikit-learn

À l'aide d'un vecteur de soutien à l'classificateur avec noyau polynomial en scikit-learn

OriginalL'auteur KenobiShan | 2016-05-15