Estos son mis datos de entrenamiento: 200,000 Ejemplos x 10,000 Características. Entonces mi matriz de datos de entrenamiento es - 200,000 x 10,000.
Logré guardar esto en un archivo plano sin tener problemas de memoria guardando cada conjunto de datos uno por uno (un ejemplo tras otro) a medida que genero las características para cada ejemplo.
Pero ahora, cuando uso Milk , SVM light o cualquier otro algoritmo de Machine Learning, todo trata de cargar todos los datos de entrenamiento en la memoria en lugar de entrenarlos uno por uno. Sin embargo, solo tengo 8 GB de RAM, así que no puedo proceder de esta manera.
¿Sabes de todos modos que podría entrenar el algoritmo un conjunto de datos por un conjunto de datos? Es decir, en cualquier momento solo tengo un conjunto de datos cargado en la memoria, mientras entreno.