Trataré de responder esta pregunta con una combinación de evidencia publicada, experiencia personal y especulación.
A) Evidencia publicada.
El único documento que conozco que ayuda a responder la pregunta es Delgado et al 2014: ¿necesitamos cientos de clasificadores para resolver problemas de clasificación del mundo real? - JMLR que ejecuta cientos de algoritmos e implementaciones diferentes en 121 conjuntos de datos para UCI. Encuentran que, aunque RBF SVM no es el "mejor" algoritmo (es un bosque aleatorio si no recuerdo mal), se encuentra entre los 3 primeros (o 5).
Si considera que su selección de conjuntos de datos es una "buena muestra" de problemas del mundo real, entonces SVM es definitivamente un algoritmo que debe probarse en nuevos problemas, ¡pero primero debe probar el bosque aleatorio!
Los límites para generalizar ese resultado son que los conjuntos de datos son casi todos altos y delgados (n >> p), no muy escasos, lo que supongo que debería ser más un problema para RF, y no muy grandes (tanto n como p).
Finalmente, aún con la evidencia publicada, recomiendo dos sitios que comparan diferentes implementaciones de bosques aleatorios:
B) Experiencia personal.
Creo que documentos como Delgado y todos muy importantes para la comunidad de aprendizaje automático, por lo que intenté replicar sus resultados en algunas condiciones diferentes. Ejecuté unos 15 algoritmos diferentes en más de 100 conjuntos de datos binarios (del conjunto de conjuntos de datos de Delgado). También creo que tuve más cuidado con la selección de hiperparámetros que con ellos.
Mis resultados son que el SVM fue el "mejor algoritmo" (rango medio 4.9). Mi opinión es que SVM pasó RF porque el conjunto de datos original contenía muchos problemas multiclase, que discutiré en la parte de especulación, debería ser un problema para SVM.
EDITAR (16 de junio):
Pero RF es mucho más rápido, y fue el segundo mejor algoritmo (rango medio 5.6) seguido de gbm (5.8), nnets (7.2), etc.). No probé la regresión logística estándar en estos problemas, pero probé una red elástica (L1 y L2 LR regularizada) pero no funcionó bien (rango medio 8.3) ~
Todavía no he terminado de analizar los resultados o escribir el documento, por lo que ni siquiera puedo señalar un informe técnico con los resultados. Con suerte, en algunas semanas puedo volver a editar esta respuesta y señalar un informe técnico con los resultados.
El documento está disponible en http://arxiv.org/abs/1606.00930 Resulta que después del análisis completo, RF y SVM son casi equivalentes en términos de tasa de error esperada y SVM es más rápido (¡para mi sorpresa!). Ya no soy tan enfático al recomendar RF (por motivos de velocidad).
Por lo tanto, mi experiencia personal es que, aunque SVM puede brindarle un poco más de precisión, casi siempre es una mejor opción usar un RF.
También para problemas más grandes, puede ser imposible usar un solucionador SVM por lotes (nunca he usado un solucionador SVM en línea como LASVM u otros).
Finalmente, solo utilicé la regresión logística en una situación. Estaba haciendo una ingeniería de características "intensa" en un problema de clasificación de imágenes (como - combinar o no dos descripciones diferentes de la imagen, y la dimensionalidad de las descripciones). Y utilicé la regresión logística para seleccionar entre las muchas alternativas (porque no hay búsqueda de hiperparámetros en LR). Una vez que nos instalamos en las mejores características (de acuerdo con LR), usamos un RF (seleccionando los mejores hiperparámetros) para obtener el clasificador final.
C) especulación
Nunca he trabajado seriamente en problemas multiclase, pero creo que SVM no es tan bueno con ellos. El problema no es el problema entre las soluciones uno contra uno o uno contra todos, sino que todas las implementaciones que conozco utilizarán los mismos hiperparámetros para todos los clasificadores (OVO u OVA). Seleccionar los hiperparámetros correctos para SVM es tan costoso que ninguna de las implementaciones disponibles que conozco hará una búsqueda de cada clasificador. Especulo que esto es un problema para SVM (¡pero no un problema para RF!).
Por otra parte, para problemas multiclase iría directamente a RF.