Sé que R no es particularmente útil para analizar grandes conjuntos de datos dado que R carga todos los datos en la memoria, mientras que algo como SAS hace análisis secuenciales. Dicho esto, hay paquetes como bigmemory que permiten a los usuarios realizar análisis de datos grandes (análisis estadístico) de manera más eficiente en R.
Quería saber, además de toda la información teórica, si alguien ha usado / está usando R para analizar grandes conjuntos de datos en un entorno empresarial y cuáles son los problemas típicos que podrían surgir. Por conjuntos de datos grandes me refiero a conjuntos de datos que tienen un tamaño de ~ 200 GB. Además, cualquier idea sobre ejemplos de la vida real de la migración de SAS a R en tales casos de uso sería útil.
ff
y bigmemory
. @Glen_b, ¿cree que la nueva R (con una máquina de 64 bits) rivalizará con SAS (en términos del posible tamaño de los conjuntos de datos)?