TL; DR: Utilice StratifiedShuffleSplit contest_size=0.25
Scikit-learn proporciona dos módulos para la división estratificada:
- StratifiedKFold : este módulo es útil como operador directo de validación cruzada de k-fold: ya que configurará conjuntos de
n_folds
entrenamiento / prueba de manera que las clases estén igualmente equilibradas en ambos.
Aquí hay un código (directamente de la documentación anterior)
>>> skf = cross_validation.StratifiedKFold(y, n_folds=2)
>>> len(skf)
2
>>> for train_index, test_index in skf:
... print("TRAIN:", train_index, "TEST:", test_index)
... X_train, X_test = X[train_index], X[test_index]
... y_train, y_test = y[train_index], y[test_index]
...
- StratifiedShuffleSplit : este módulo crea un único conjunto de entrenamiento / prueba con clases igualmente equilibradas (estratificadas). Básicamente, esto es lo que quieres con
n_iter=1
. Puede mencionar el tamaño de la prueba aquí igual que entrain_test_split
Código:
>>> sss = StratifiedShuffleSplit(y, n_iter=1, test_size=0.5, random_state=0)
>>> len(sss)
1
>>> for train_index, test_index in sss:
... print("TRAIN:", train_index, "TEST:", test_index)
... X_train, X_test = X[train_index], X[test_index]
... y_train, y_test = y[train_index], y[test_index]
>>>