Si he entendido la pregunta según lo previsto, tiene en mente una configuración en la que puede obtener realizaciones independientes de cualquier variable aleatoria X con cualquier distribución F (que tiene una varianza finita σ2( F) ). El "juego" está determinado por las funciones h y L que se describirán. Consiste en los siguientes pasos y reglas:
Su oponente ( "Naturaleza") revela F.
En respuesta, produce un número t ( F) , su "predicción".
Para evaluar el resultado del juego, se realizan los siguientes cálculos:
Una muestra de norte IID observaciones X = X1, X2, ... , Xnorte se extrae de F.
Se aplica una función predeterminada h a la muestra, produciendo un número h ( X ) , el "estadístico".
La "función de pérdida" L compara su "predicción" t ( F) con la estadística h ( X ) , produciendo un número no negativo L (t(F) , h ( X ) ) .
El resultado del juego es la pérdida esperada (o "riesgo") R( L , h )( t , F) = E( L ( t ( F) , h ( X ) ) ) .
Su objetivo es responder al movimiento de la Naturaleza especificando algunas t que minimicen el riesgo.
Por ejemplo, en el juego con la función h ( X1) = X1 y cualquier pérdida de la forma L (t,h)=λ(t-h )2 para algún número positivo λ , su movimiento óptimo es elegir t ( F) para ser la expectativa de F.
La pregunta que tenemos ante nosotros es:
¿Existen L y h para las cuales el movimiento óptimo es elegir t ( F) para que sea la varianza σ2( F) ?
Esto se responde fácilmente exhibiendo la varianza como una expectativa. Una forma es estipular que h ( X1, X2) = 12( X1- X2)2
y continúe usando la pérdida cuadráticaL (t,h)=(t-h )2.
Al observar eso
mi( h ( X ) ) = σ2( F) ,
El ejemplo nos permite concluir que este h y este L responden la pregunta sobre la varianza.
σ( F)F( p )p ,σ( F) = p ( 1 - p )-------√p ∈ ( 0 , 1 ) .1 / phXyo.