La entrada de Wikipedia sobre Bootstrapping es realmente muy buena:
http://en.wikipedia.org/wiki/Bootstrapping_%28statistics%29
La razón más común por la que se aplica bootstrapping es cuando se desconoce la forma de la distribución subyacente de la que se toma una muestra. Tradicionalmente, los estadísticos suponen una distribución normal (por muy buenas razones relacionadas con el teorema del límite central), pero las estadísticas (como la desviación estándar, los intervalos de confianza, los cálculos de potencia, etc.) estimadas mediante la teoría de distribución normal solo son estrictamente válidas si la distribución de la población subyacente es normal.
Al volver a muestrear repetidamente la muestra, el bootstrapping permite estimaciones que son independientes de la distribución. Tradicionalmente, cada "remuestreo" de la muestra original selecciona aleatoriamente el mismo número de observaciones que en la muestra original. Sin embargo, estos se seleccionan con reemplazo. Si la muestra tiene N observaciones, cada muestra de bootstrap tendrá N observaciones, con muchas de las muestras originales repetidas y muchas excluidas.
El parámetro de interés (por ejemplo, odds ratio, etc.) puede estimarse a partir de cada muestra de arranque. La repetición del bootstrap, digamos 1000 veces, permite una estimación de la "mediana" y el intervalo de confianza del 95% en la estadística (por ejemplo, odds ratio) seleccionando el percentil 2.5, 50 y 97.5.