Al revisar el " Modelo predictivo aplicado ", un revisor declara :
Una crítica que tengo de la pedagogía del aprendizaje estadístico (SL) es la ausencia de consideraciones de rendimiento de cómputo en la evaluación de diferentes técnicas de modelado. Con su énfasis en bootstrapping y validación cruzada para ajustar / probar modelos, SL requiere bastante computación. Agregue a eso el nuevo muestreo que está integrado en técnicas como embolsado y refuerzo, y tiene el espectro del infierno de la computación para el aprendizaje supervisado de grandes conjuntos de datos. De hecho, las restricciones de memoria de R imponen límites bastante severos en el tamaño de los modelos que pueden ajustarse mediante métodos de alto rendimiento como los bosques aleatorios. Si bien SL hace un buen trabajo al calibrar el rendimiento del modelo con conjuntos de datos pequeños, seguramente sería bueno comprender el rendimiento versus el costo computacional para datos más grandes.
¿Cuáles son las restricciones de memoria de R? ¿Imponen límites severos al tamaño de los modelos que pueden ajustarse mediante métodos de alto rendimiento como los bosques aleatorios ?