Suponga que una variable aleatoria tiene un límite inferior y superior [0,1]. ¿Cómo calcular la varianza de tal variable?
Suponga que una variable aleatoria tiene un límite inferior y superior [0,1]. ¿Cómo calcular la varianza de tal variable?
Respuestas:
Puede probar la desigualdad de Popoviciu de la siguiente manera. Utilice la notación y . Definir una función por
Ahora, considere el valor de la función en el punto especial . Debe ser el caso de que
Pero
Desde y , tenemos
lo que implica que
Sea una distribución en . Vamos a demostrar que si la varianza de es máxima, entonces puede tener ningún apoyo en el interior, de la que se deduce que es Bernoulli y el resto es trivial.
Como cuestión de notación, y mucho sea el ésimo momento prima de (y, como de costumbre, escribimos y para la varianza).
Sabemos que no tiene todo su soporte en un punto (la varianza es mínima en ese caso). Entre otras cosas, esto implica que μ se encuentra estrictamente entre 0 y 1 . Para argumentar por contradicción, suponga que hay un subconjunto I medible en el interior ( 0 , 1 ) para el cual F ( I ) > 0 . Sin ninguna pérdida de generalidad, podemos suponer (cambiando X a 1 - X si es necesario) que F ( J = I : en otras palabras, J se obtiene cortando cualquier parte de I por encima de la media y J tiene una probabilidad positiva.
Alteremos a F ′ tomando toda la probabilidad de J y colocándola en 0 . Al hacerlo, cambia a
Como una cuestión de notación, escribamos para tales integrales, de donde
Calcular
El segundo término de la derecha, , es no negativo debido μ ≥ x todas partes en J . El primer término de la derecha puede reescribirse
El primer término a la derecha es estrictamente positivo porque (a) y (b) [ 1 ] = F ( J ) < 1 porque asumimos que F no está concentrado en un punto. El segundo término no es negativo porque puede reescribirse como [ ( μ - x ) ( x ) ] y este integrando no es negativo a partir de los supuestos μ ≥ x en J y 0 ≤ x ≤ 1. Se deduce que .
Acabamos de demostrar que, bajo nuestras suposiciones, cambiar a F ' aumenta estrictamente su varianza. La única forma en que esto no puede suceder, entonces, es cuando toda la probabilidad de F ' se concentra en los puntos finales 0 y 1 , con (digamos) valores 1 - p y p , respectivamente. Su varianza se calcula fácilmente a la igualdad de p ( 1 - p ) que es máxima cuando p = 1 / 2 y es igual a 1 / 4 allí.
Ahora, cuando es una distribución en [ a , b ] , volvemos a centrarla y la redimensionamos a una distribución en [ 0 , 1 ] . La reubicación no cambia la varianza, mientras que la reescalada la divide por ( b - a ) 2 . Así, una F con varianza máxima en [ un , b ] corresponde a la distribución con varianza máxima en [ 0 , 1 ] : por lo tanto, es un Bernoulli ( 1 / 2 )distribución reescalado y traducido a que tiene varianza ( b - a ) 2 / 4 , QED .
Si la variable aleatoria está restringida a y conocemos la media μ = E [ X ] , la varianza está limitada por ( b - μ ) ( μ - a ) .
Consideremos primero el caso . Tenga en cuenta que para todo x ∈ [ 0 , 1 ] , x 2 ≤ x , por lo que también E [ X 2 ] ≤ E [ X ] . Usando este resultado, σ 2 = E [ X 2 ] - ( E [ X ] 2 ) = E [ X 2 ]
Para generalizar a intervalos con b > a , considere Y restringido a [ a , b ] . Definir X = Y - a , que está restringido en[0,1]. De manera equivalente,Y=(b-a)X+a, y por lo tanto Var[Y]=(b-a)2Var[X]≤(b-a)2μX(1-μX).
A petición de @ user603 ...
Otro punto a tener en cuenta es que una variable aleatoria limitada tiene una varianza finita, mientras que para una variable aleatoria no limitada, la varianza puede no ser finita y, en algunos casos, ni siquiera ser definible. Por ejemplo, la media no se puede definir para las variables aleatorias de Cauchy , por lo que no se puede definir la varianza (como la expectativa de la desviación al cuadrado de la media).