¿Cuál es el significado de un intervalo de confianza tomado de resamples bootstrapped?


38

He estado mirando numerosas preguntas en este sitio sobre el arranque y los intervalos de confianza, pero todavía estoy confundido. Probablemente, parte de la razón de mi confusión es que no estoy lo suficientemente avanzado en mi conocimiento de estadísticas para comprender muchas de las respuestas. Estoy a mitad de camino de un curso introductorio de estadística y mi nivel de matemáticas es solo a mediados de Álgebra II, por lo que cualquier cosa que supere ese nivel me confunde. Si una de las personas con conocimientos en este sitio pudiera explicar este problema a mi nivel, sería extremadamente útil.

Estábamos aprendiendo en clase cómo tomar muestras usando el método bootstrap y usarlas para construir un intervalo de confianza para algunas estadísticas que nos gustaría medir. Entonces, por ejemplo, digamos que tomamos una muestra de una gran población y encontramos que el 40% dice que votará por el candidato A. Suponemos que esta muestra es un reflejo bastante preciso de la población original, en cuyo caso podemos tomar muestras de descubrir algo sobre la población. Por lo tanto, tomamos muestras y encontramos (utilizando un nivel de confianza del 95%) que el intervalo de confianza resultante oscila entre el 35% y el 45%.

Mi pregunta es, ¿qué significa realmente este intervalo de confianza ?

Sigo leyendo que hay una diferencia entre los intervalos de confianza (frecuentes) y los intervalos creíbles (bayesianos). Si entendí correctamente, un intervalo creíble diría que hay un 95% de posibilidades de que en nuestra situación el parámetro verdadero esté dentro del intervalo dado (35% -45%), mientras que un intervalo de confianza diría que hay un 95% que en este tipo de situación (pero no necesariamente en nuestra situación específica) el método que estamos utilizando informaría con precisión que el parámetro verdadero está dentro del intervalo dado.

Asumiendo que esta definición es correcta, mi pregunta es: ¿Cuál es el "parámetro verdadero" del que estamos hablando cuando usamos intervalos de confianza creados usando el método bootstrap? ¿Nos referimos a (a) el verdadero parámetro de la población original , o (b) el verdadero parámetro de la muestra ? Si (a), entonces estaríamos diciendo que el 95% de las veces el método bootstrap informará con precisión declaraciones verdaderas sobre la población original. Pero, ¿cómo podríamos saber eso? ¿No descansa todo el método bootstrap en el supuesto?que la muestra original es un reflejo exacto de la población de la que fue tomada? Si (b), entonces no entiendo el significado del intervalo de confianza en absoluto. ¿No sabemos ya el verdadero parámetro de la muestra? ¡Es una medida directa!

Discutí esto con mi maestra y ella fue muy útil. Pero todavía estoy confundido.

Respuestas:


28

Si el procedimiento de arranque y la formación del intervalo de confianza se realizaron correctamente, significa lo mismo que cualquier otro intervalo de confianza. Desde una perspectiva frecuentista, un IC del 95% implica que si todo el estudio se repitiera de forma idéntica hasta el infinito , el 95% de dichos intervalos de confianza formados de esta manera incluirían el valor verdadero. Por supuesto, en su estudio, o en cualquier estudio individual dado, el intervalo de confianza incluirá el valor verdadero o no, pero no sabrá cuál. Para comprender mejor estas ideas, puede ayudarlo leer mi respuesta aquí: ¿Por qué un intervalo de confianza (IC) del 95% no implica una probabilidad del 95% de contener la media?

X¯μ. Para una demostración rápida de las matemáticas, considere la siguiente simulación usando R:

# a function to perform bootstrapping
boot.mean.sampling.distribution = function(raw.data, B=1000){
  # this function will take 1,000 (by default) bootsamples calculate the mean of 
  # each one, store it, & return the bootstrapped sampling distribution of the mean

  boot.dist = vector(length=B)     # this will store the means
  N         = length(raw.data)     # this is the N from your data
  for(i in 1:B){
    boot.sample  = sample(x=raw.data, size=N, replace=TRUE)
    boot.dist[i] = mean(boot.sample)
  }
  boot.dist = sort(boot.dist)
  return(boot.dist)
}

# simulate bootstrapped CI from a population w/ true mean = 0 on each pass through
# the loop, we will get a sample of data from the population, get the bootstrapped 
# sampling distribution of the mean, & see if the population mean is included in the
# 95% confidence interval implied by that sampling distribution

set.seed(00)                       # this makes the simulation reproducible
includes = vector(length=1000)     # this will store our results
for(i in 1:1000){
  sim.data    = rnorm(100, mean=0, sd=1)
  boot.dist   = boot.mean.sampling.distribution(raw.data=sim.data)
  includes[i] = boot.dist[25]<0 & 0<boot.dist[976]
}
mean(includes)     # this tells us the % of CIs that included the true mean
[1] 0.952

¿En qué supuestos particulares confiamos?
iarwain

2
Gracias. Creo que encontré lo que estaba buscando en la segunda respuesta a ese hilo: "Recuerde que no estamos usando las medias de las muestras de bootstrap para estimar la media de la población, usamos la media de la muestra para eso (o cualquiera que sea la estadística de interés) es). Pero estamos usando las muestras de bootstrap para estimar las propiedades (dispersión, sesgo) del proceso de muestreo. Y usar el muestreo de una población conocida (que esperamos sea representativa de la población de interés) para conocer los efectos del muestreo tiene sentido y es mucho menos circular ". ...
iarwain

1
... En otras palabras, todo lo que CI nos dice es que en una población más o menos similar a la nuestra esperaríamos que el 95% de las muestras tomadas de esa población reflejen el valor verdadero +/- el margen de error. Entonces, todo lo que estamos haciendo es dar una pista muy aproximada, aunque tal vez la mejor pista que tengamos, sobre cuán cerca podría estar nuestra estadística de muestra del verdadero parámetro de población. Si es así, entonces parece que no deberíamos tomar los números exactos en el CI demasiado en serio, solo significan algo así como "el estadístico de la muestra es probablemente más o menos exacto en este grado". ¿Lo entendí bien?
iarwain

1
Eso es esencialmente correcto. Un IC nos da una idea de la precisión de nuestra estimación, pero nunca sabemos si nuestro IC real (realizado) contiene el valor verdadero. La suposición principal es que nuestros datos son representativos de la población de interés. Tenga en cuenta que ninguno de estos es particular para los CI de arranque , tiene la misma interpretación y suposición en un CI calculado a través de la teoría asintótica.
gung - Restablece a Monica

1
Esta es una excelente explicación. Solo agregaría que el "verdadero valor" es a veces un artefacto del diseño del estudio. En las encuestas para candidatos políticos, las muestras estratificadas dan estimaciones mucho más precisas y confiables que una muestra aleatoria. El costo es un riesgo de sobremuestreo del grupo equivocado por diseño. En ese caso, el IC del 95% se centra en el valor correcto, el que se logra replicando el estudio hasta el infinito , pero ese valor no es el otro sentido de un parámetro verdadero: el parámetro que queríamos estimar. Es por eso que el diseño del estudio y la inferencia están intrínsecamente vinculados.
AdamO

0

Lo que está diciendo es que no hay necesidad de encontrar el intervalo de confianza de las muestras de arranque. Si está satisfecho con la estadística (media muestral o proporción muestral) obtenida de resamples de bootstrapped, no encuentre ningún intervalo de confianza y, por lo tanto, no hay duda de interpretación. Pero si no está satisfecho con la estadística obtenida de los resamples de bootstrapped o está satisfecho pero aún desea encontrar el intervalo de confianza, entonces la interpretación para dicho intervalo de confianza es la misma que cualquier otro intervalo de confianza. Es porque cuando las muestras remotas representan exactamente (o se supone que lo son) la población original, entonces, ¿dónde está la necesidad del intervalo de confianza? La estadística de las muestras remotas es el parámetro de población original en sí, pero cuando no considera la estadística como el parámetro de población original, entonces es necesario encontrar el intervalo de confianza. Entonces, se trata de cómo lo consideras. Supongamos que calculó un intervalo de confianza del 95% a partir de muestras remotas. Ahora la interpretación es: "el 95% de las veces, este método de arranque resulta con precisión en un intervalo de confianza que contiene el parámetro de población real".

(Esto es lo que pienso. Corrígeme si hay algún error).


-1

Nos estamos refiriendo al verdadero parámetro de la población original. Es posible hacer esto suponiendo que los datos se extrajeron aleatoriamente de la población original; en ese caso, hay argumentos matemáticos que muestran que los procedimientos de arranque proporcionarán un intervalo de confianza válido, al menos a medida que el tamaño del conjunto de datos sea lo suficientemente grande. .


Por lo tanto, parece que para entender por qué funciona, necesitaré saber suficientes matemáticas para seguir las pruebas matemáticas. ¿Es eso correcto?
iarwain

Creo que sí (no estoy familiarizado con las pruebas)
Gareth

Sin embargo, intuitivamente, puede ver que a medida que el tamaño de la muestra aumenta, la muestra comienza a parecerse mucho a la población. Por ejemplo, supongamos que tomo 1 millón de muestras de una distribución normal con media y varianza dadas. Llame a esta muestra X. Una muestra aleatoria (con reemplazo) extraída de X se parece mucho a una muestra aleatoria extraída de la distribución original. Creo que esta es la idea básica de por qué funciona.
Gareth
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.