Supongamos que tiene un conjunto de entrenamiento de pares de ejemplos .Tnorte(yyo,X⃗ yo)
Un bootstrap normal es un conjunto de pares de ejemplos , donde es una secuencia de enteros aleatorios muestreados uniformemente de 1 a . En particular, tenga en cuenta que cada ejemplo en es exactamente el mismo que uno de los ejemplos de , y algunos se repiten. Pero esto es un poco extraño, especialmente cuando la variable de respuesta es continua, porque si volvemos a muestrear la población original, casi seguramente no obtendríamos ni siquiera un duplicado exacto , mientras que un bootstrap probablemente tenga muchos.sinorte(yryo,X⃗ ryo)ryonortenortesiT
Para evitar duplicados, necesitamos que los ejemplos de no sean copias al carbón de ejemplos de , sino ejemplos sintéticos que se parezcan más a lo que obtendríamos de la población original. Esto requiere hacer una suposición sobre la distribución de la población original.si T
Si asumimos la homocedasticidad y ajustamos un modelo lineal a que tiene residuos entonces podemos construir nuevos ejemplos sintéticos reemplazando el residuo ajustado de cada ejemplo con el residuo de un ejemplo de entrenamiento diferente . Si los residuos son realmente iid, no debería haber problemas para cambiar uno por otro. Hacemos este reemplazo restando el residuo encontrado para el ejemplo de entrenamiento y sumando el residuo para otro ejemplo:Tmiyo(yyo,X⃗ yo)
y∗yo=yryo-miryo+mir′yo(1)
Donde y son dos diferentes e independientes. Entonces podemos formar el bootstrap de la manera habitual:ryor′yo
si= {(y∗yo,X⃗ yo)}nortei = 1(2)
Esto se llama bootstrap residual y puede considerarse como la elección de nuevos residuos de la función de distribución empírica de los residuos.
Para relajar aún más los supuestos de id y homoscedasticidad, podemos usar un arranque salvaje , donde calculamos la nueva variable de respuesta aún más aleatoriamente multiplicando el residuo elegido aleatoriamente por otra variable aleatoria .vyo
y∗yo=yryo-miryo+vyomir′yo(3)
A menudo se usa la distribución normal estándar pero son posibles otras opciones. Por ejemplo, a veces simplemente se elige con igual probabilidad de , que simplemente voltea aleatoriamente el signo la mitad del tiempo, obligando a la distribución residual a ser simétrica. El punto es obtener ejemplos de entrenamiento que estén más cerca de lo que habríamos extraído de la población original sin la replicación artificial introducida por el bootstrap.vyo∼ N( 0 , 1 )vyo{ - 1 , 1 }