Utilizo Libsvm para entrenar datos y predecir la clasificación del problema de análisis semántico . Pero tiene un problema de rendimiento en datos a gran escala, porque el análisis semántico se refiere al problema de la dimensión n .
El año pasado, Liblinear fue lanzado, y puede resolver el cuello de botella de rendimiento. Pero costó demasiada memoria . ¿ MapReduce es la única forma de resolver un problema de análisis semántico en big data? ¿O hay otros métodos que pueden mejorar el cuello de botella de memoria en Liblinear ?