Interpretación del intervalo de confianza.


16

Nota: disculpas de antemano si esto es un duplicado, no encontré una q similar en mi búsqueda

Digamos que tenemos un verdadero parámetro p. Un intervalo de confianza C (X) es un RV que contiene p, digamos el 95% del tiempo. Ahora supongamos que observamos X y calculamos C (X). La respuesta común parece ser que es incorrecto interpretar que esto tiene una "probabilidad del 95% de contener p", ya que "lo hace o no contiene p"

Sin embargo, digamos que elijo una carta de la parte superior de un mazo barajado y la dejo boca abajo. Intuitivamente, pienso en la probabilidad de que esta carta sea el As de Picas como 1/52, aunque en realidad "es o no es el As de Picas". ¿Por qué no puedo aplicar este razonamiento al ejemplo del intervalo de confianza?

O si no tiene sentido hablar de la "probabilidad" de que la carta sea el as de espadas ya que "es o no es", todavía tendría 51: 1 de probabilidades de que no sea el as de espadas. ¿Hay otra palabra para describir esta información? ¿Cómo es este concepto diferente de "probabilidad"?

editar: Tal vez para ser más claro, a partir de una interpretación bayesiana de la probabilidad, si me dicen que una variable aleatoria contiene p 95% del tiempo, dada la realización de esa variable aleatoria (y no hay otra información para condicionar) correcto decir que la variable aleatoria tiene un 95% de probabilidad de contener p?

editar: también, a partir de una interpretación frecuentista de probabilidad, digamos que el frecuentador acepta no decir nada como "hay un 95% de probabilidad de que el intervalo de confianza contenga p". ¿Sigue siendo lógico que un frecuentista tenga una "confianza" de que el intervalo de confianza contiene p?

Sea alfa el nivel de significancia y sea t = 100-alfa. K (t) sea la "confianza" del frecuentista de que el intervalo de confianza contiene p. Tiene sentido que K (t) esté aumentando en t. Cuando t = 100%, el frecuentista debe tener la certeza (por definición) de que el intervalo de confianza contiene p, por lo que podemos normalizar K (1) = 1. De manera similar, K (0) = 0. Presumiblemente, K (0,95) está en algún punto intermedio 0 y 1 y K (0.999999) es mayor. ¿De qué manera el frecuentista consideraría K diferente de P (la distribución de probabilidad)?


1
De hecho, considere un lanzamiento de moneda donde la moneda rueda debajo de una mesa, fuera de la vista y consideramos el evento en el que la moneda cayó sobre las cabezas. A primera vista, esto parece ser muy similar al problema de CI: claramente el evento sucedió o no. Sin embargo, en el caso del lanzamiento de la moneda, muchos (quizás incluso la mayoría) de los frecuentadores parecen perfectamente felices de asignar una probabilidad teórica, (por ejemplo, ) a que la moneda no observada haya terminado en cara, mientras se aleja de decir lo mismo sobre el intervalo aleatorio que contiene el parámetro. Para mí parece haber una inconsistencia. p
Glen_b: reinstala a Monica el

@Glen_b Los frecuentes en el escenario de monedas caídas no observadas aplican un razonamiento contrafactual para decir, no que el valor nominal real de la moneda es "aleatorio" (aunque no es observado), sino que podemos generalizar cualquier resultado observado a otros resultados potenciales en esta caída acuñar y calcular probabilidades. En cuanto a la probabilidad del valor nominal real de la moneda, es cara o no cara, no hay probabilidad. La se guarda para la construcción contrafactual de esta configuración. p
AdamO

@Glen_b: Estoy de acuerdo, mira mi pregunta aquí: stats.stackexchange.com/questions/233588/…
vonjd el

@vonjd ¿en qué medida su pregunta no es simplemente un duplicado del primer párrafo después de la apertura "Nota:" aquí?
Glen_b -Reinstate Monica

@Glen_b: Para ser honesto, no estaba al tanto de esta pregunta cuando publiqué la mía y ciertamente se superponen. Sin embargo, creo que no son duplicados porque el mío generalmente se preocupa por el uso de probabilidades de resultados ocultos (lo que tendría consecuencias para los intervalos de confianza), mientras que este solo apunta a intervalos de confianza. Pero si crees que el mío es un duplicado, no dudes en cerrarlo.
vonjd

Respuestas:


8

Creo que muchas cuentas convencionales de este asunto no están claras.

Digamos que toma una muestra de tamaño y obtiene un intervalo de confianza del 95 % para p .10095%p

Luego, toma otra muestra de , independiente de la primera, y obtiene otro intervalo de confianza del 95 % para p .10095%p

Lo que cambia es el intervalo de confianza; lo que no cambia es . p Eso significa que en los métodos frecuentistas, uno dice que el intervalo de confianza es "aleatorio" pero es "fijo" o "constante", es decir, no aleatorio. En los métodos frecuentistas, como el método de intervalos de confianza, uno asigna probabilidades solo a cosas que son aleatorias.p

Entonces y ( L , U ) es un intervalo de confianza. ( L = "inferior" y U = "superior".) Tome una nueva muestra y L y U cambian pero p no.Pr(L<p<U)=0.95(L,U)L=U=LUp

Digamos que en un caso particular tienes y U = 43.61 . En los métodos frecuentistas, uno no asignaría una probabilidad a la declaraciónL=40.53U=43.61 , aparte de una probabilidad de 0 o 1 , porque nada aquí es aleatorio: 40.53 no es aleatorio, p no es aleatorio (ya que no cambiará si tomamos una nueva muestra), y 43.61 no es aleatorio.40.53<p<43.610140.53p43.61

En la práctica, las personas se comportan como si estuvieran seguras de que p está entre 40.53 y 43.61 . Y como cuestión práctica, eso a menudo puede tener sentido. Pero a veces no. Uno de esos casos es si se sabe de antemano que números tan grandes como 40 o más son improbables, o si se sabe que son altamente probables. Si se puede asignar alguna distribución de probabilidad previa a p , se usa el teorema de Bayes para obtener un intervalo creíble, que puede diferir del intervalo de confianza debido al conocimiento previo de qué rangos de valores de p95%p40.5343.6140pp probables o improbables. También puede suceder que los datos en sí mismos, las cosas que cambian si se toma una nueva muestra, puedan decirle que p es poco probable sea ​​o incluso seguro que no sea tan grande como . Eso puede suceder incluso en los casos en que el par ( L , U ) es una estadística suficiente para p . Ese fenómeno puede ser tratado en algunos casos por el método de condicionamiento de Fisher en una estadística auxiliar. Un ejemplo de este último fenómeno es cuando la muestra se compone de sólo dos observaciones independientes que se distribuyen uniformemente en el intervalo theta ± 1 / 240(L,U)pθ±1/2. Entonces, el intervalo desde la menor de las dos observaciones hasta la mayor es un intervalo de confianza del . Pero si la distancia entre ellos es 0.001 , sería absurdo estar cerca del 50 % seguro de que θ está entre ellos, y si la distancia es 0.999 , uno estaría razonablemente casi 100 % seguro de que θ está entre ellos. La distancia entre ellos sería la estadística auxiliar sobre la que se condicionaría.50%0.00150%θ0.999100%θ


Gracias Michael, eso tiene mucho sentido. Supongamos en su ejemplo que tenemos un particular (L, U) pero los valores no los conocemos. Todo lo que sabemos es que es la realización de una variable aleatoria del intervalo de confianza del 95%. Sin ninguna información previa sobre el parámetro o cualquier otra información, ¿sería justo establecer probabilidades 19: 1 de que (L, U) contenga el parámetro? Si un frecuentador está dispuesto a hacer esto, pero no llama a su "disposición a establecer probabilidades 19: 1 de que contenga el parámetro" una "probabilidad", ¿cómo lo llamaríamos?
applicative_x

Sí, esa probabilidad es . Ciertamente, dentro de los métodos frecuentistas se puede decir que en un estado de ignorancia de ( L , U ) la probabilidad es 0.95 de que ese intervalo contenga p . Pero cuando uno tiene valores particulares, que no son aleatorios, el frecuentista no asignará una probabilidad distinta de 0 o 1 a la declaración, ya que los valores conocidos de L y U no son aleatorios. 0.95(L,U)0.95p01LU
Michael Hardy

3

La definición del libro de texto de un intervalo de confianza de % es:100×(1α)

Un intervalo que, bajo muchas repeticiones independientes del estudio en condiciones ideales, captura la medición del efecto replicado % del tiempo.100×(1α)

La probabilidad, para los frecuentistas, proviene de la noción de "rebobinar el tiempo y el espacio" para replicar los hallazgos, como si se creara un número infinito de copias del mundo para evaluar un hallazgo científico una y otra y otra vez. Entonces una probabilidad es una frecuencia exactamente. Para los científicos, esta es una forma muy conveniente de discutir los resultados, ya que el primer principio de la ciencia es que los estudios deben ser replicables.

En el ejemplo de tu carta, la confusión para los bayesianos y los frequentistas es que el frecuentista no asigna una probabilidad al valor nominal de la carta en particular que volteaste del mazo, mientras que un bayesiano lo haría. El frecuentista asignaría la probabilidad a una carta, volteada desde la parte superior del mazo aleatoriamente barajado. A un Bayesiano no le preocupa replicar el estudio, una vez que se voltea la tarjeta, ahora tiene un 100% de confianza sobre lo que es la tarjeta y un 0% de creencia de que podría tomar cualquier otro valor. Para los bayesianos, la probabilidad es una medida de creencia.

Tenga en cuenta que los bayesianos no tienen intervalos de confianza por este motivo, resumen la incertidumbre con intervalos de credibilidad .


Gracias por la respuesta. En el ejemplo de la carta, ¿no estarían de acuerdo tanto el bayesiano como el frecuentista de que 51: 1 es una probabilidad justa de que la carta sea el as de espadas? Del mismo modo, para la realización de un intervalo de confianza del 95% (y ninguna otra información), ¿no tendrían ambas probabilidades 19: 1 de que contenga el parámetro verdadero? En ese sentido, ¿podría un bayesiano interpretar que el intervalo de confianza del 95% tiene una probabilidad del 95% de contener el parámetro verdadero?
applicative_x

@applicative_x ¿Qué pasa con un mazo de pinochle? Está considerando el uso de información previa. El frequentist sólo podrá hipótesis de que la probabilidad es y sólo utilizar la cara de la tarjeta valorHasta informar si este experimento era compatible o incompatible con esa hipótesis. La validez de cualquier tipo de estimación de intervalo (credibilidad o confianza) depende de supuestos no verificables. No existe un parámetro verdadero, esta es una forma peligrosa de pensar sobre la ciencia. Los bayesianos no juegan con intervalos de confianza según la definición anterior. Vuelve a leer la respuesta. p=1/52
AdamO

Gracias Adam, creo que todavía estoy confundido. Supongamos que sé (mirando las cartas) que un mazo de 52 cartas es estándar. Mezclo el mazo y escojo las 10 mejores cartas sin mirarlas. ¿No podría definir el "parámetro verdadero" en este caso como el número de tarjetas rojas? Entonces, independientemente de bayesiano vs frecuentista, hay un "verdadero parámetro". Si se me permite recoger 7 cartas al azar que también podría imaginarse la construcción de un intervalo de confianza para las tarjetas rojas del #of de mi 10.
applicative_x

1
1/2

1
@ Adam: Encuentro sus comentarios crípticos. "de qué utilidad es la noción de" verdad "es un cambio de tema. "Pensamos en la verdad como inmutable". Entonces "nosotros" significa usted y quién más, y ¿cuál es la relevancia de lo que piensan? "Ningún científico jamás recolectaría datos con el fin de verificar algo que ya se conoce". Eso parece otro cambio de tema. Luego siguen algunos comentarios sobre frecuentistas y bayesianos. No tengo ganas de adivinar lo que estás tratando de decir.
Michael Hardy
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.