Esta pregunta se aborda en esta muy buena publicación. Por favor échale un vistazo y las referencias allí. http://fastml.com/what-is-better-gradient-boosted-trees-or-random-forest/
Observe en el artículo que habla sobre la calibración y enlaces a otra (agradable) publicación de blog al respecto. Aún así, encuentro que el documento Obteniendo las probabilidades calibradas del refuerzo le da una mejor comprensión de lo que es la calibración en el contexto de los clasificadores potenciados, y cuáles son los métodos estándar para realizarla.
Y finalmente falta un aspecto (un poco más teórico). Tanto RF como GBM son métodos de conjunto, lo que significa que crea un clasificador a partir de una gran cantidad de clasificadores más pequeños. Ahora la diferencia fundamental radica en el método utilizado:
- RF utiliza árboles de decisión, que son muy propensos al sobreajuste. Para lograr una mayor precisión, RF decide crear una gran cantidad de ellos en función del embolsado . La idea básica es volver a muestrear los datos una y otra vez y para cada muestra entrenar un nuevo clasificador. Los diferentes clasificadores sobreponen los datos de una manera diferente, y al votar esas diferencias se promedian.
- GBM es un método de refuerzo, que se basa en clasificadores débiles . La idea es agregar un clasificador a la vez, de modo que el siguiente clasificador esté entrenado para mejorar el conjunto ya entrenado. Observe que para RF en cada iteración, el clasificador se entrena independientemente del resto.