¿Qué es, precisamente, un intervalo de confianza?


86

Sé de manera aproximada e informal lo que es un intervalo de confianza. Sin embargo, parece que no puedo entender un detalle bastante importante: según Wikipedia:

Un intervalo de confianza no predice que el valor verdadero del parámetro tiene una probabilidad particular de estar en el intervalo de confianza dados los datos realmente obtenidos.

También he visto puntos similares en varios lugares de este sitio. Una definición más correcta, también de Wikipedia, es:

Si los intervalos de confianza se construyen en muchos análisis de datos separados de experimentos repetidos (y posiblemente diferentes), la proporción de tales intervalos que contienen el valor verdadero del parámetro coincidirá aproximadamente con el nivel de confianza

Nuevamente, he visto puntos similares en varios lugares de este sitio. No lo entiendo Si, en experimentos repetidos, la fracción de intervalos de confianza calculados que contienen el parámetro verdadero es , entonces, ¿cómo puede la probabilidad de que esté en el intervalo de confianza calculado para el experimento real sea otra cosa que ? Estoy buscando lo siguiente en una respuesta:θ(1α)θ(1α)

  1. Aclaración de la distinción entre las definiciones incorrectas y correctas anteriores.

  2. Una definición formal y precisa de un intervalo de confianza que muestra claramente por qué la primera definición es incorrecta.

  3. Un ejemplo concreto de un caso en el que la primera definición es espectacularmente incorrecta, incluso si el modelo subyacente es correcto.


44
Esta publicación tiene una buena discusión sobre el tema de los intervalos de confianza stats.stackexchange.com/questions/2356/… . El artículo al que se hace referencia en la publicación, creo, ayuda a arrojar algo de luz precisamente por qué las definiciones anteriores son correctas para los intervalos de confianza. A menudo, al ver cómo se descomponen los CI, uno puede comprenderlos mejor.
chanceislogic

2
Parte de mí aplaude la pregunta (+1). Una parte competitiva quiere señalar que: 1. La gran mayoría de los consumidores de estadísticas, las personas que usan las estadísticas de manera pragmática pero no filosófica para hacer su punto en la química o la investigación de mercado, nunca comprenderán las sutilezas de los problemas, y a menudo estar perdido para explicar los resultados. 2. Incluso algunos estadísticos puristas pueden caer en la trampa de hacer declaraciones supuestamente probabilísticas como las que involucran intervalos de confianza cuando no están trabajando con muestras aleatorias. Un problema mucho más grande.
rolando2

3
@ Mario ¡Tu suposición no es cierta! De 100 repeticiones del experimento, esperamos que 95 de los IC (no las medias) contengan la media verdadera (pero desconocida). El IC es aleatorio pero la media real de la población no lo es.
Whuber

66
Hay un buen artículo de Cumming y Maillardet (2006) que muestra que no el 95% de los medios de replicación caerán en el IC original, sino solo el 83.4% (llaman a este valor 'porcentaje de captura'). La razón es que hay dos fuentes de variabilidad: A) la variabilidad de la media original alrededor mu, y, B) la variabilidad de la replicación significa alrededor mu. La mayoría de la gente olvida A: ¡el CI original no se construye necesariamente alrededor mu!
Felix S

2
Los lectores interesados ​​también pueden querer ver este hilo: ¿Por qué un IC del 95% no implica una probabilidad del 95% de contener la media?
gung - Restablece a Monica

Respuestas:


26

Encontré este experimento mental útil al pensar en intervalos de confianza. También responde a su pregunta 3.

Deje e . Considere dos observaciones de tomando los valores e correspondientes a las observaciones y de , y deje y . Entonces es un intervalo de confianza del 50% para (ya que el intervalo incluye if o , cada uno de los cuales tiene probabilidad ).Y = X + a - 1XU(0,1)Y=X+a12Yy1y2x1x2Xyl=min(y1,y2)yu=max(y1,y2)[yl,yu]aax1<12<x2x1>12>x214

Sin embargo, si entonces sabemos que la probabilidad de que el intervalo contenga es , no . La sutileza es que un intervalo de confianza para un parámetro significa que los puntos finales del intervalo (que son variables aleatorias) se encuentran a ambos lados del parámetro con probabilidad antes de calcular el intervalo , no que la probabilidad del parámetro mentir dentro del intervalo es después de haber calculado el intervalo .yuyl>12a112z%z% z%


3
Tenga en cuenta que casi seguramente, de ahí que el intervalo contenga el parámetro con probabilidad cero. De hecho, su argumento funciona si lo que está estimando es . Y>a[yl,yu]aθ=a+12
Lo hizo

44
No creo que este contraejemplo sea válido, porque solo conoce la probabilidad de que el intervalo contenga es uno después de ver que . Es perfectamente razonable que la probabilidad cambie después de adquirir información adicional. Si todo lo que sabía es que el intervalo era un intervalo de confianza del 50%, entonces la probabilidad seguiría siendo 1/2 (aunque sería una probabilidad bayesiana no frecuente, ya que se aplica a un evento en particular que no tiene una frecuencia de ejecución larga)θyuyl>1/2
Dikran Marsupial

1
De hecho, ese es un buen ejemplo, pero estoy totalmente en desacuerdo con sus afirmaciones sobre las probabilidades de alguna manera de cambiar antes y después de calcular el intervalo de confianza. Eso no tiene sentido y da la impresión de que las matemáticas de alguna manera se preocupan por lo que sabes y lo que no. ¡No lo hace! Usted siempre tiene que es . También siempre tiene que es . Eso no es una contradicción, una es simplemente una probabilidad incondicional y la otra es una probabilidad condicional. P(a[yl,yu])12P(a[yl,yu]|yuyl>12)1
fgp

2
@fgp, sí, tal vez es una redacción deficiente por parte de Taylor hablar sobre el cambio de probabilidades. No hay probabilidades de cambiar. Lo que muestra el argumento es cómo es fácil que surjan situaciones que demuestren una comprensión errónea de los IC que conducen a problemas lógicos. Si crees que un IC que observas tiene un 50% de probabilidad de ser correcto pero no puede ser correcto, entonces estás entendiendo que un IC está mal.
John

36

Hay muchos problemas relacionados con los intervalos de confianza, pero centrémonos en las citas. El problema radica en posibles malas interpretaciones en lugar de ser una cuestión de corrección. Cuando las personas dicen que un "parámetro tiene una probabilidad particular de" algo, piensan que el parámetro es una variable aleatoria. Este no es el punto de vista de un procedimiento de intervalo de confianza (clásico), para el cual la variable aleatoria es el intervalo en sí mismo y el parámetro se determina, no al azar, pero desconocido. Es por eso que tales declaraciones son frecuentemente atacadas.

Matemáticamente, si permitimos que sea ​​cualquier procedimiento que asigne datos a subconjuntos del espacio de parámetros y si (sin importar cuál sea el valor del parámetro ) la aserción define un evento , luego, por definición, tiene una probabilidad para cualquier valor posible de . Cuando es un procedimiento de intervalo de confianza con confianza entonces se supone que esta probabilidad tiene un valor mínimo (sobre todos los valores de los parámetros) detx=(xi)θθt(x)A(x)Prθ(A(x))θt1α1α. (Sujeto a este criterio, generalmente seleccionamos procedimientos que optimizan algunas propiedades adicionales, como producir intervalos de confianza cortos o simétricos, pero eso es un asunto separado). La Ley Débil de Números Grandes justifica la segunda cita. Sin embargo, eso no es una definición de intervalos de confianza: es simplemente una propiedad que tienen.

Creo que este análisis ha respondido a la pregunta 1, muestra que la premisa de la pregunta 2 es incorrecta y hace que la pregunta 3 sea discutible.


3
Gracias por responder a una excelente pregunta. ¿Puedo mencionar la siguiente analogía para una discusión adicional? Supongamos que lanzo una moneda justa una y otra vez. Entonces, . Ahora, lanzo la moneda una vez, pero no te muestro lo que lancé, y pregunto: "¿Cuál es la probabilidad de que salgan cara?". ¿Cómo responderías a esa pregunta? P(Head)=.50
Wolfgang

3
Otra forma de expresarlo: para los no bayesianos, las únicas "cosas" que pueden tener una probabilidad son los posibles eventos, en el sentido de los resultados futuros de un experimento aleatorio. Dado que el parámetro tiene un valor verdadero fijo, una vez que tiene un intervalo con valores específicos, ya no es un evento posible si el parámetro se incluye o no en el intervalo. Como resultado, puede confiar en el proceso que genera el intervalo, pero no en dos números específicos.
caracal

1
@caracal - solo un poco de reflexión, ¿es un "lanzamiento de moneda" todo verdaderamente "al azar"? Si dice "sí", rechazaría la idea de que si una moneda sale cara es una función determinista (pero complicada) de muchas cosas (por ejemplo, viento, altitud, fuerza y ​​ángulo de lanzamiento, peso de la moneda, etc., etc.) .). Creo que esto muestra el doble estándar de "aleatoriedad" que se aplica al pensamiento basado en CI. Los datos son fijos pero no estamos seguros de su valor (los datos ergo son aleatorios ), mientras que los parámetros son fijos pero no estamos seguros de su valor ( los parámetros ergo no son aleatorios ).
chanceislogic

44
@Wolfgang No veo cómo su ejemplo se refiere a los intervalos de confianza. No solicita nada relacionado con un parámetro de distribución. Su situación está más relacionada con los intervalos de predicción. Creo que toda esta discusión puede tener algún interés en ese contexto, pero no pertenece a un hilo sobre los intervalos de confianza.
whuber

2
@whuber La pregunta de si se puede hacer una declaración de probabilidad sobre un IC del 95% en particular capturando el parámetro desconocido verdadero es muy similar a la pregunta de si se puede hacer una declaración de probabilidad sobre un cambio específico donde el resultado aún se desconoce. A la larga, el 95% de los CI capturarán el parámetro. A la larga, el 50% de las tiradas son caras. ¿Podemos decir que hay un 95% de posibilidades de que un IC particular capture el parámetro? ¿Podemos decir que hay un 50% de posibilidades de que las cabezas se levanten antes de mirar? Yo diría que sí a ambos. Pero algunas personas pueden estar en desacuerdo.
Wolfgang

19

No diría que la definición de CI es incorrecta, pero son fáciles de interpretar mal, debido a que hay más de una definición de probabilidad. Los IC se basan en la siguiente definición de probabilidad (frecuente u ontológica)

(1) probabilidad de una proposición = proporción a largo plazo de veces que se observa que la proposición es verdadera, condicional en el proceso de generación de datos

Por lo tanto, para ser conceptualmente válido al usar un IC, debe aceptar esta definición de probabilidad. Si no lo hace, entonces su intervalo no es un CI, desde un punto de vista teórico.

Esta es la razón por la cual la definición utilizó la palabra proporción y NO la palabra probabilidad , para dejar en claro que se está utilizando la definición de probabilidad de "frecuencia a largo plazo".

La definición alternativa principal de probabilidad (epistemológica o probabilidad como una extensión de lógica deductiva o bayesiana) es

(2) probabilidad de una proposición = grado racional de creencia de que la proposición es verdadera, condicional en un estado de conocimiento

A menudo, las personas confunden intuitivamente ambas definiciones y usan cualquier interpretación que resulte atractiva para su intuición. Esto puede llevarlo a todo tipo de situaciones confusas (especialmente cuando pasa de un paradigma a otro).

Que los dos enfoques a menudo conducen al mismo resultado, significa que en algunos casos tenemos:

grado racional de creencia de que la proposición es verdadera, condicional en un estado de conocimiento = proporción a largo plazo de veces que se observa que la proposición es verdadera, condicional en el proceso de generación de datos

El punto es que no se mantiene universalmente , por lo que no podemos esperar que las dos definiciones diferentes siempre conduzcan a los mismos resultados. Entonces, a menos que realmente resuelva la solución bayesiana, y luego encuentre que es el mismo intervalo, no puede dar al intervalo dado por el CI la interpretación como una probabilidad de contener el valor verdadero. Y si lo hace, entonces el intervalo no es un intervalo de confianza, sino un intervalo creíble.


2
No veo por qué la probabilidad de una proposición según la definición 1 debería ser un número racional. La proporción a largo plazo parece referirse al límite de las proporciones de veces de modo que se observa que la proposición es verdadera. Cada proporción es un número racional pero su límite puede no serlo. (Afortunadamente, este paréntesis tuyo parece tangencial en el mejor de los casos con el resto de tu respuesta.)
Lo hizo el

3
@probabilidad Esta respuesta parece llevarnos a una tangente de una manera no muy constructiva. Igualar probabilidad y proporción es una forma de confusión ontológica, similar a igualar una temperatura con el nivel de mercurio en un termómetro: uno es una construcción teórica y el otro es un fenómeno físico utilizado para medirlo. Hay una discusión sobre esto en stats.stackexchange.com/questions/1525/… .
whuber

@Didier: tiene razón, de hecho, la secuencia de , que son términos racionales con límite irracional. He eliminado este comentario. Gracias por mencionar esto. xn=r2xn1+xn12r
chanceislogic

66
@whuber: este punto es importante de mencionar porque es precisamente este malentendido lo que lleva a las personas a interpretar los IC de manera incorrecta. La probabilidad confusa con el "grado racional de creencia" no es consistente con el paradigma frecuentista. Esto es lo que sucede cuando se toma CI para significar "probabilidad de que el valor verdadero esté en intervalo", que es lo que @dsimcha está haciendo en la pregunta.
probabilidadislogica

1
@probabilidad Gracias por la explicación. Había entendido que su respuesta estaba de acuerdo con una definición de "probabilidad = proporción". De hecho, una relectura cercana aún sugiere que esto es lo que está diciendo en el tercer párrafo, a pesar de que su comentario ahora caracteriza esto como un malentendido. Es posible que desee aclarar este punto.
whuber

6

RA Fisher tenía un criterio para la utilidad de los intervalos de confianza: un IC no debería admitir "subconjuntos identificables" que impliquen un nivel de confianza diferente. En la mayoría de los contraejemplos (si no todos), tenemos casos en los que hay subconjuntos identificables que tienen diferentes probabilidades de cobertura.

En estos casos, puede usar intervalos de crédito bayesianos para especificar un sentido subjetivo de dónde está el parámetro, o puede formular un intervalo de probabilidad para reflejar la incertidumbre relativa en el parámetro, dados los datos.

Por ejemplo, un caso que parece relativamente libre de contradicciones es el intervalo de confianza normal de 2 lados para la media de la población. Suponiendo que el muestreo de una población normal con std. Dado, el IC del 95% admite que no hay subconjuntos identificables que proporcionarían más información sobre el parámetro. Esto se puede ver por el hecho de que la media de la muestra es una estadística suficiente en la función de probabilidad, es decir, la función de probabilidad es independiente de los valores de muestra individuales una vez que conocemos la media de la muestra.

La razón por la que tenemos alguna confianza subjetiva en el IC simétrico del 95% para la media normal se deriva menos de la probabilidad de cobertura establecida y más del hecho de que el IC simétrico del 95% para la media normal es el intervalo de "mayor probabilidad", es decir, todos Los valores de parámetros dentro del intervalo tienen una mayor probabilidad que cualquier valor de parámetro fuera del intervalo. Sin embargo, dado que la probabilidad no es una probabilidad (en el sentido de precisión a largo plazo), es más un criterio subjetivo (como lo es el uso bayesiano de previo y probabilidad). En resumen, hay infinitos intervalos para la media normal que tienen una probabilidad de cobertura del 95%, pero solo el IC simétrico tiene la plausibilidad intuitiva que esperamos de una estimación de intervalo.

Por lo tanto, el criterio de RA Fisher implica que la probabilidad de cobertura debería ser igual a la confianza subjetiva solo si no admite ninguno de estos subconjuntos identificables. Si hay subconjuntos, la probabilidad de cobertura estará condicionada a los valores verdaderos de los parámetros que describen el subconjunto. Para obtener un intervalo con el nivel intuitivo de confianza, necesitará condicionar el intervalo estiamte en las estadísticas auxiliares apropiadas que ayudan a identificar el subconjunto. O bien, podría recurrir a modelos de dispersión / mezcla, lo que naturalmente lleva a interpretar los parámetros como variables aleatorias (también conocidas como estadísticas bayesianas) o puede calcular el perfil / probabilidad condicional / marginal en el marco de probabilidad. De cualquier manera, has abandonado cualquier esperanza de tener una probabilidad objetivamente verificable de ser correcto,

Espero que esto ayude.


1
(+1) Una forma de justificar el CI normal simétrico es que minimiza la longitud esperada. En última instancia, eso hace retroceder la subjetividad a la elección de la longitud como una función de pérdida en un procedimiento de decisión: pero eso podría decirse que es un tipo de subjetividad "buena" (porque expone el papel de nuestros objetivos analíticos en nuestra elección del procedimiento estadístico) en lugar de subjetividad "mala", que suena simplemente como un epíteto peyorativo.
whuber

5

Desde una perspectiva teórica, las preguntas 2 y 3 se basan en la suposición incorrecta de que las definiciones son incorrectas. Por lo tanto, estoy de acuerdo con la respuesta de @ whuber a ese respecto, y la respuesta de @ whuber a la pregunta 1 no requiere ningún aporte adicional de mi parte.

Sin embargo, desde una perspectiva más práctica, un intervalo de confianza puede recibir su definición intuitiva (Probabilidad de contener el valor verdadero) cuando es numéricamente idéntico a un intervalo creíble bayesiano basado en la misma información (es decir, un previo no informativo).

Pero esto es algo desalentador para el duro anti-bayesiano, porque para verificar las condiciones para darle a su CI la interpretación que él / ella quiere darle, ¡deben encontrar la solución bayesiana, para lo cual la interpretación intuitiva es válida automáticamente!

El ejemplo más fácil es un intervalo de confianza para la media normal con una varianza conocida , y un intervalo creíble posterior .1αx¯±σZα/21αx¯±σZα/2

No estoy exactamente seguro de las condiciones, pero sé que lo siguiente es importante para la interpretación intuitiva de los IC:

1) existe una estadística de pivote, cuya distribución es independiente de los parámetros (¿existen pivotes exactos fuera de las distribuciones normales y chi-cuadrado?)

2) no hay parámetros molestos, (excepto en el caso de una estadística fundamental, que es una de las pocas formas exactas en que uno tiene que manejar los parámetros molestos al hacer CI)

3) existe una estadística suficiente para el parámetro de interés, y el intervalo de confianza utiliza la estadística suficiente

4) la distribución de muestreo de la estadística suficiente y la distribución posterior tienen algún tipo de simetría entre la estadística suficiente y el parámetro. En el caso normal de la distribución de muestreo, la simetría está en mientras que .(x¯|μ,σ)N(μ,σn)(μ|x¯,σ)N(x¯,σn)

Estas condiciones suelen ser difíciles de encontrar y, por lo general, es más rápido calcular el intervalo bayesiano y compararlo. Un ejercicio interesante también puede ser tratar de responder la pregunta "¿para qué anterior es mi IC también un intervalo creíble?" Puede descubrir algunas suposiciones ocultas acerca de su procedimiento de CI al observar esto antes.


1
(+1) ¿Existe realmente una persona como un "anti-Bayesiano"? :-)
whuber

66
@whuber Aquí hay uno . Y aquí hay una econométrica que colabora con ella en estudios de filosofía de la estadística.
Cyan

1
¡Gracias! Ese es un hilo extremadamente interesante en la filosofía de la probabilidad y las estadísticas que desconocía.
whuber

1
¿Escribiste mal como falta ? x¯±zα/2σnn
qazwsx

3

Esto es algo que puede ser difícil de entender:

  • si en promedio el 95% de todos los intervalos de confianza contendrán el parámetro
  • y tengo un intervalo de confianza específico
  • ¿Por qué no es la probabilidad de que este intervalo contenga el parámetro también 95%?

Un intervalo de confianza se relaciona con el procedimiento de muestreo. Si toma muchas muestras y calcula un intervalo de confianza del 95% para cada muestra, encontrará que el 95% de esos intervalos contienen la media de la población.

Esto es útil, por ejemplo, para los departamentos de calidad industrial. Esos tipos toman muchas muestras, y ahora tienen la confianza de que la mayoría de sus estimaciones estarán muy cerca de la realidad. Saben que el 95% de sus estimaciones son bastante buenas, pero no pueden decir eso sobre todas y cada una de las estimaciones específicas.

Compare esto con los dados rodantes: si lanzara 600 dados (justos), ¿cuántos 6 lanzaría? Su mejor conjetura es * 600 = 100.16

Sin embargo, si has lanzado UN dado, es inútil decir: "Hay una probabilidad de 1/6 o 16.6% de que ahora haya arrojado un 6". ¿Por qué? Porque el dado muestra un 6 o alguna otra figura. Has lanzado un 6, o no. Entonces la probabilidad es 1 o 0. La probabilidad no puede ser .16

Cuando se le preguntó antes del lanzamiento cuál sería la probabilidad de lanzar un 6 con UN dado, un Bayesiano respondería " " (basado en información previa: todos saben que un dado tiene 6 lados y una oportunidad igual de caer en cualquiera de ellos), pero un Frecuentista diría "No tengo idea" porque el frecuentismo se basa únicamente en los datos, no en los antecedentes o cualquier información externa.16

Del mismo modo, si solo tiene 1 muestra (por lo tanto, 1 intervalo de confianza), no tiene forma de decir qué tan probable es que la media de la población esté en ese intervalo. La media (o cualquier parámetro) está en ella o no. La probabilidad es 1 o 0.

Además, no es correcto que los valores dentro del intervalo de confianza sean más probables que aquellos fuera de eso. Hice una pequeña ilustración; todo se mide en ° C. Recuerde, el agua se congela a 0 ° C y hierve a 100 ° C.

El caso: en un lago frío, nos gustaría estimar la temperatura del agua que fluye debajo del hielo. Medimos la temperatura en 100 ubicaciones. Aquí están mis datos:

  • 0.1 ° C (medido en 49 ubicaciones);
  • 0.2 ° C (también en 49 ubicaciones);
  • 0 ° C (en 1 lugar. Esto era agua a punto de congelarse);
  • 95 ° C (en un lugar, hay una fábrica que descarga ilegalmente agua muy caliente en el lago).
  • Temperatura media: 1.1 ° C;
  • Desviación estándar: 1.5 ° C;
  • 95% -CI: (-0.8 ° C ...... + 3.0 ° C).

Las temperaturas dentro de este intervalo de confianza definitivamente NO son más probables que las de afuera. La temperatura promedio del agua que fluye en este lago NO PUEDE ser más fría que 0 ° C, de lo contrario no sería agua sino hielo. Una parte de este intervalo de confianza (es decir, la sección de -0.8 a 0) en realidad tiene un 0% de probabilidad de contener el parámetro verdadero.

En conclusión: los intervalos de confianza son un concepto frecuente y, por lo tanto, se basan en la idea de muestras repetidas. Si muchos investigadores tomarían muestras de este lago, y si todos esos investigadores calcularan los intervalos de confianza, entonces el 95% de esos intervalos contendrán el parámetro verdadero. Pero para un solo intervalo de confianza es imposible decir qué tan probable es que contenga el parámetro verdadero.


1
No confunda el hecho de que la estadística frecuentista no mide la creencia con una persona frecuentadora que tiene creencias previas y las actualiza. La diferencia no es si el frecuentista es un idiota sin conocimiento fuera de los datos, sino si las estadísticas frecuentistas proporcionan medidas directas de los estados de creencia. El frecuentista debe actualizar sus creencias con base en pruebas, IC, etc. de lo contrario, todo su sistema no funciona porque todo depende de las decisiones tomadas.
John

2

De acuerdo, me doy cuenta de que cuando calculas un intervalo de confianza del 95% para un parámetro usando métodos frecuentas clásicos, no significa que haya una probabilidad del 95% de que el parámetro se encuentre dentro de ese intervalo. Y sin embargo ... cuando aborda el problema desde una perspectiva bayesiana, y calcula un intervalo creíble del 95% para el parámetro, obtiene (suponiendo un previo no informativo) exactamente el mismo intervalo que obtiene utilizando el enfoque clásico. Entonces, si uso estadísticas clásicas para calcular el intervalo de confianza del 95% para (por ejemplo) la media de un conjunto de datos, entonces es cierto que existe una probabilidad del 95% de que el parámetro se encuentre en ese intervalo.


55
Si obtiene el mismo resultado utilizando intervalos de confianza frecuentas e intervalos creíbles bayesianos depende del problema, y ​​en particular de la distribución previa utilizada en el enfoque bayesiano. ¡También es importante en matemáticas y ciencias que cuando tienes razón tienes razón por la razón correcta!
Dikran Marsupial

44
Si "usa estadísticas clásicas para calcular el intervalo de confianza del 95% para [un parámetro]", entonces, si está razonando de manera consistente, no tiene sentido referirse a una "probabilidad de que el parámetro se encuentre en ese intervalo". En el momento en que menciona esa probabilidad, ha cambiado su modelo estadístico de la situación. En el nuevo modelo, donde el parámetro es aleatorio, es incorrecto calcular un IC utilizando métodos frecuentas. Obtener la respuesta correcta de esta manera en algunas situaciones es interesante, pero no justifica la confusión conceptual que lo subyace.
whuber

44
@whuber: su premisa "... si está razonando constantemente ..." tiene una consecuencia del viejo teorema de Cox. Dice que si razona constantemente, su solución debe ser matemáticamente equivalente a una bayesiana. Entonces, dada esta premisa, un IC necesariamente será equivalente a un intervalo creíble, y su interpretación como probabilidad es válida. Y en Bayes, no es el parámetro el que tiene una distribución, es la incertidumbre acerca de ese parámetro el que tiene una distribución.
chanceislogic

2
... continúa ... Así que uno puede jugar el tonto juego de "Soy un Bayesiano" Prob ese parámetro está en el intervalo ", soy un frenesí" Prob ese intervalo cubre el parámetro ", soy Bayesiano ..., soy un frequentist, ..., soy un bayesiano ..., soy un frequentist, ..... a la vez que los números del cálculo real nunca cambian
probabilityislogic

2

Usted está preguntando sobre el intervalo de confianza frecuente . La definición (tenga en cuenta que ninguna de sus 2 citas es una definición! Solo declaraciones, que ambas son correctas) es:

Si hubiera repetido este experimento un gran número de veces, dado este modelo ajustado con los valores de este parámetro , en el 95% de los experimentos el valor estimado de un parámetro caería dentro de este intervalo.

Entonces tiene un modelo (construido utilizando sus datos observados) y sus parámetros estimados. Luego, si generó algunos conjuntos de datos hipotéticos de acuerdo con este modelo y parámetros, los parámetros estimados caerían dentro del intervalo de confianza.

De hecho, este enfoque frecuente toma el modelo y los parámetros estimados como fijos, como se da, y trata sus datos como inciertos, como una muestra aleatoria de muchos otros datos posibles.

Esto es realmente difícil de interpretar y esto a menudo se usa como argumento para las estadísticas bayesianas ( lo que creo que a veces puede ser poco discutible . Las estadísticas bayesianas, por otro lado, toman sus datos como fijos y tratan los parámetros como inciertos. Los intervalos bayesianos creíbles son entonces realmente intuitivo, como era de esperar: los intervalos bayesianos creíbles son intervalos en los que con el 95% se encuentra el valor del parámetro real.

Pero en la práctica, muchas personas interpretan los intervalos de confianza frecuentistas de la misma manera que los intervalos bayesianos creíbles y muchos estadísticos no consideran que esto sea un gran problema, aunque todos lo saben, no es 100% correcto. También en la práctica, los intervalos frecuentas y bayesianos de confianza / credibilidad no diferirán mucho, cuando se usan antecedentes bayesianos no informativos .


-1 Su "definición" parece ser incorrecta, al menos en una lectura de la misma. El CI está construido para cubrir el parámetro verdadero con probabilidad . No está condicionado a un modelo o método particular para ajustar los parámetros. Sin embargo, quizás estoy interpretando mal la definición: tomo "este modelo ajustado con este valor de parámetro" para referirme a su estimación actual del parámetro. Si no fue así como lo intentó, ¿tal vez podría aclarar este punto? 1α1α
whuber

@whuber, OK, lo entiendo, pero si dice que mi definición es incorrecta, publique su definición completa de lo que es CI.
Curioso

He aclarado mi comentario, Tomás, porque se me ocurre que podría estar leyendo tu definición de una manera que no pretendías. Kiefer, Introducción a la inferencia estadística , escribe "[ E] l resultado del experimento es ... [S] suponga que el procedimiento se usa para estimar y el verdadero valor de is ... [L] a cantidad .. El número se llama coeficiente de confianza del procedimiento ... se llama aXt=[L,U]ϕ(θ)θθ0γt(θ0)=Prθ0{L(X)ϕ(θ0)U(X)}γ¯t=infθΩγt(θ)ttintervalo de confianza. "
whuber

@whuber, su definición es realmente incomprensible para mí y me temo que también para la mayoría de las personas :) Y sí, me refería a la estimación actual, ya que los frecuentes obtienen la estimación del parámetro como se da y los datos son aleatorios, lo opuesto a bayesiano.
Curioso

3
Creo que el problema principal en su definición Curioso es: "... el valor estimado de un parámetro caería dentro del intervalo". No es un parámetro estimado sino un parámetro fijo desconocido; y no cae dentro del intervalo, sino que el intervalo se mueve y el 95% del tiempo captura el parámetro.
John

2

Supongamos que estamos en una situación simple. Tiene un parámetro desconocido y un estimador de que tiene una imprecisión alrededor de 1 (informalmente). Piensa (informalmente) que debería estar en mayor frecuencia.θTθθ[T1;T+1]

En un experimento real observas .T=12

Es natural hacer la pregunta "Dado lo que veo ( ), ¿cuál es la probabilidad ?". Matemáticamente: . Todos naturalmente hacen esta pregunta. La teoría del intervalo de confianza debería responder lógicamente a esta pregunta. Pero no lo hace.T=12θ[11;13]P(θ[11;13]|T=12)

Las estadísticas bayesianas responden a esa pregunta. En estadística bayesiana, realmente puede calcular . Pero hay que asumir una anterior que es una distribución de antes de hacer el experimento y la observación de . Por ejemplo :P(θ[11;13]|T=12)θT

  • Suponga que tiene una distribución previa uniforme enθ[0;30]
  • haz este experimento, encuentraT=12
  • Aplicar la fórmula de Bayes:P(θ[11;13]|T=12)=0.94

Pero en las estadísticas frecuentas, no hay antecedentes y, por lo tanto, nada como no existe. En cambio, los estadísticos dicen algo como esto: "Sea lo que sea , la probabilidad de que sea ". Matemáticamente: "P(θ...|T...)θθ[T1;T+1]0.95θ,P(θ[T1;T+1]|θ)=0.95

Entonces :

  • Bayesiano: paraP(θ[T1;T+1]|T)=0.94T=12
  • Frecuentista:θ,P(θ[T1;T+1]|θ)=0.95

La declaración bayesiana es más natural. Muy a menudo, la declaración frecuentista se malinterpreta espontáneamente como la declaración bayesiana (por cualquier cerebro humano normal que no haya practicado estadísticas durante años). Y, sinceramente, muchos libros de estadísticas no dejan ese punto muy claro.

¿Y prácticamente?

En muchas situaciones habituales, el hecho es que las probabilidades obtenidas por los enfoques frecuentista y bayesiano son muy cercanas. Así que confundir la declaración frecuentista para la Bayesiana tiene pocas consecuencias. Pero "filosóficamente" es muy diferente.

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.