He leído esta declaración muchas veces, pero nunca he encontrado una prueba. Me gustaría intentar producir uno yo mismo, pero ni siquiera estoy seguro de qué notación usar. Puede alguien ayudarme con esto?
He leído esta declaración muchas veces, pero nunca he encontrado una prueba. Me gustaría intentar producir uno yo mismo, pero ni siquiera estoy seguro de qué notación usar. Puede alguien ayudarme con esto?
Respuestas:
No sé si esta es la respuesta final, pero esas cosas no caben en un comentario.
La afirmación de que los errores OOB son imparciales se usa a menudo, pero nunca vi una demostración. Después de muchas búsquedas, finalmente di después de leer detenidamente la conocida página de Breiman para la sección de RF : La estimación del error fuera de bolsa (oob) . En caso de que no lo hayas notado (como me perdí por algún tiempo), la última propuesta es la importante: esto ha demostrado ser imparcial en muchas pruebas . Por lo tanto, no hay signos de derivación formal.
Más que eso, parece estar probado que para el caso en que tiene más variables que instancias, este estimador está sesgado. Ver aquí .
Para el error en la bolsa hay una derivación formal. El error en la bolsa es el error de arranque y hay mucha literatura que comienza con "Una Introducción al Bootsrap, por Efron y Tibshirani". Sin embargo, la demostración más limpia que vi está aquí .
Si desea comenzar a encontrar una prueba, creo que un buen punto de partida es la comparación de esta estimación con la validación cruzada N-fold. En ESTL se afirma que hay una identidad en el límite, ya que el número de muestras va al infinito.
¿Por qué esperas que el error oob sea imparcial?
Hay (al menos) 1 caso de capacitación menos disponible para los árboles utilizados en el bosque sustituto en comparación con el bosque "original". Esperaría que esto conduzca a un pequeño sesgo pesimista más o menos comparable a la validación cruzada de dejar uno fuera.
Hay aproximadamente del número de árboles del bosque "original" en el bosque sustituto que en realidad se evalúa con el caso excluido. Por lo tanto, esperaría una mayor varianza en la predicción, lo que causará un sesgo pesimista adicional.
Ambos pensamientos están estrechamente relacionados con la curva de aprendizaje del clasificador y la aplicación / datos en cuestión: el primero con el rendimiento promedio en función del tamaño de la muestra de entrenamiento y el segundo con la variación alrededor de esta curva promedio.
En general, esperaría que a lo sumo sea capaz de demostrar formalmente que Oob es un estimador imparcial del rendimiento de los bosques aleatorios que contienen de la cantidad de árboles del bosque "original" y la capacitación en casos de los datos de capacitación originales.
Tenga en cuenta también que Breiman usa "imparcial" para salir de la rutina de la misma manera que lo usa para la validación cruzada, donde también tenemos un sesgo pesimista (pequeño). Viniendo de un campo experimental, estoy de acuerdo con decir que ambos son prácticamente imparciales ya que el sesgo generalmente es mucho menos problemático que la varianza (probablemente no estés usando bosques aleatorios si tienes el lujo de tener muchos casos) .