Creo que deberías mirar los métodos de aprendizaje en línea . El perceptrón y el perceptrón del núcleo son extremadamente fáciles de codificar y funcionan extremadamente bien en la práctica, y hay una gran cantidad de otros métodos en línea. Tenga en cuenta que cualquier método de aprendizaje en línea se puede convertir en un algoritmo de aprendizaje por lotes, en cuyo caso se parecen mucho a los métodos de descenso de gradiente estocástico.
Si está usando Matlab, hay una caja de herramientas realmente agradable llamada DOGMA por Francesco Orabona, que contiene una variedad de algoritmos de aprendizaje en línea, y puede evaluar algunos métodos diferentes utilizando eso. Utilicé esto en algunas de mis investigaciones y descubrí que es muy útil (tenga en cuenta que, por lo que recuerdo, espera los datos como [características x ejemplos], por lo que es posible que tenga que transponerlos).
Como otros han mencionado, es posible que desee probar la reducción de dimensionalidad. PCA podría no ser una buena opción aquí, ya que debe calcular la matriz de covarianza, que será muy costosa. Podrías intentar mirar Proyecciones aleatorias . La teoría es dura, pero el principio es muy simple. Se basa en el Lema de Johnson-Lindenstrauss si está interesado, pero la idea básica es que si proyecta al azar en un espacio dimensional más bajo, entonces distancias entre puntos se conservan hasta algunos ϵ . Si está utilizando un kernel RBF, ¡entonces ℓ 2 distancias son todo lo que le interesa!ℓ2ϵℓ2