Razón intuitiva por la cual la información de Fisher del binomio es inversamente proporcional a


12

Confunde / me sorprende que el Binomial tenga una varianza proporcional a . De manera equivalente, la información de Fisher es proporcional a 1p(1p) . ¿Cuál es la razón para esto? ¿Por qué se minimiza la información de Fisher enp=0.5? Es decir, ¿por qué la inferencia es más difícil enp=0.5?1p(1p)p=0.5p=0.5

Contexto:

Estoy trabajando en una calculadora de tamaño de muestra, y la fórmula para , el tamaño de muestra necesario, es un factor creciente de p ( 1 - p ) , el resultado de una estimación de varianza en la derivación.Np(1p)


3
La varianza de una variable aleatoria de Bernoulli con el parámetro es p ( 1 - p ) y la variable aleatoria binomial, que es la suma de N variables aleatorias independientes de Bernoulli, tiene una varianza N p ( 1 - p ) , que es la suma de N variaciones Con respecto a por qué p ( 1 - p ) , considere la varianza como el momento de inercia sobre el centro de masa de masas p y 1 - p en 1pp(1p)NNp(1p)N p(1p)p1p1y respectivamente. 0
Dilip Sarwate

Sí, he dicho proporcional a , ignorar el N . ¿Puede explicar su segunda parte? Parece una perspectiva interesante. p(1p)N
Cam.Davidson.Pilon

Respuestas:


13

Para ver, de manera intuitiva, que la varianza se maximiza en , tome p igual a 0.99 (resp. P = 0.01 ). Entonces, una muestra de X Bernoulli ( p ) probablemente contendrá muchos 1 's (resp. 0 ' s) y solo unos pocos 0 's (resp. 1 ' s). No hay mucha variación allí.p=0.5p0.99p=0.01XBernoulli(p)1001


p=0.5p=0.5

3
De nuevo de una manera muy intuitiva: cuanta más variación, más información necesita.
ocram

9

pp^pp

Sin embargo, creo que la intuición es más fácil cuando se mira en términos de variación.

pp

Var(p^)=p(1p)/nnpp

yingrese la descripción de la imagen aquí

Las funciones de probabilidad correspondientes: ingrese la descripción de la imagen aquí

En cada caso, preste atención a las líneas que marcan la media. A medida que la línea media se atasca más contra la barrera, los puntos por debajo de la media solo pueden llegar un poco más abajo.

p=12

ingrese la descripción de la imagen aquí

p^p

[Esta forma de intuición no nos dice por qué toma esa forma funcional exacta, pero deja en claro por qué la varianza debe ser pequeña cerca de los extremos, y hacerse más pequeña cuanto más se acerque a los extremos.]


Como resultado, los puntos por encima de la media generalmente no pueden llegar muy por encima de la media (¡porque de lo contrario la media cambiaría!). Cerca de p = 12, los puntos finales realmente no "lo empujan" de la misma manera. Demasiado perfecto. Esta es una gran explicación.
Cam.Davidson.Pilon

7

La información de Fisher es la varianza de la función de puntuación. Y está relacionado con la entropía. Para una prueba de Bernoulli, estamos obteniendo un bit por cada prueba. Entonces, esta información de Fisher tiene propiedades similares a la entropía de Shannon, como era de esperar. En particular, la entropía tiene un máximo de 1/2 y la información tiene un mínimo de 1/2.


Ah, otra gran perspectiva. ¡No había pensado en esto desde el punto de vista entrópico!
Cam.Davidson.Pilon
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.