A menudo se afirma que bootstrapping puede proporcionar una estimación del sesgo en un estimador.
Si es la estimación para alguna estadística, y son las réplicas de bootstrap (con i \ in \ {1, \ cdots, N \} ), entonces la estimación de bootstrap de sesgo es \ begin {ecation} \ mathrm {sesgo} _t \ approx \ frac {1} {N} \ sum_i \ tilde {t} _i- \ hat t \ end {ecuación} que parece extremadamente simple y poderoso, hasta el punto de ser inquietante. ~ t ii∈{1,⋯,N}biunst≈1
No puedo entender cómo es esto posible sin tener un estimador imparcial de la estadística ya. Por ejemplo, si mi estimador simplemente devuelve una constante que es independiente de las observaciones, la estimación de sesgo anterior es claramente inválida.
Aunque este ejemplo es patológico, no puedo ver cuáles son los supuestos razonables sobre el estimador y las distribuciones que garantizarán que la estimación de arranque sea razonable.
Intenté leer las referencias formales, pero no soy estadístico ni matemático, así que no se aclaró nada.
¿Alguien puede proporcionar un resumen de alto nivel de cuándo se puede esperar que la estimación sea válida? Si conoces buenas referencias sobre el tema, eso también sería genial.
Editar:
La suavidad del estimador a menudo se cita como un requisito para que funcione el bootstrap. ¿Podría ser que uno también requiera algún tipo de inversión local de la transformación? El mapa constante claramente no satisface eso.