Para un número constante dado (por ejemplo, 4), ¿es posible encontrar una distribución de probabilidad para , de modo que tengamos ?X V a r ( X ) = r
Para un número constante dado (por ejemplo, 4), ¿es posible encontrar una distribución de probabilidad para , de modo que tengamos ?X V a r ( X ) = r
Respuestas:
Considerando cuidadosamente los casos para : si entonces la distribución es degenerada, pero podría tener alguna media. Es decir, y \ Pr (X = c) = 0 para cualquier c \ neq \ mu . Por lo tanto, podemos encontrar muchas distribuciones posibles para X , pero están indexadas y completamente especificadas por \ mu \ in \ mathbb {R} .r = 0 X Pr ( X = μ ) = 1 Pr ( X = c ) = 0 c ≠ μ X μ ∈ R
Si , no se puede encontrar distribución, ya que .V a r ( X ) = E ( X - μ X ) 2 ≥ 0
Para , la respuesta dependerá de lo que se conoce información adicional sobre . Por ejemplo, si se sabe que tiene una media , entonces para cualquier y podemos encontrar una distribución con estos momentos tomando . Esta no es una solución única al problema de emparejar la media y la varianza, pero es la única solución distribuida normalmente (y de todas las soluciones posibles, esta es la que maximiza la entropía, como señala Daniel). Si también quisiera igualar, por ejemplo, el tercer momento central , o superior, entonces necesitaría considerar un rango más amplio de distribuciones de probabilidad.X X μ μ ∈ R r > 0 X ∼ N ( μ , r )
Supongamos que tenemos información sobre la distribución de lugar de sus momentos. Por ejemplo, si sabemos que sigue una distribución de Poisson, entonces la solución única sería . Si sabemos que sigue una distribución exponencial, nuevamente existe una solución única , donde hemos encontrado el parámetro resolviendo .X X ∼ P o i s s o n ( r ) X X ∼ E x p o n e n t i a l ( 1Var(X)=r=1
En otros casos podemos encontrar una familia completa de soluciones. Si sabemos que sigue una distribución rectangular (continua uniforme), entonces podemos encontrar un ancho único para la distribución resolviendo . Pero habrá toda una familia de soluciones, parametizada por : las distribuciones en este conjunto son todas traducciones entre sí. Del mismo modo, si es normal, cualquier distribución funcionaría (por lo que tenemos un conjunto completo de soluciones indexadas por , que nuevamente puede ser cualquier número real, y nuevamente la familia son todas traducciones el uno del otro). Siw V a r ( X ) = r = w 2 X∼U(a,a+w)a∈RXX∼N(μ,r)μXX∼Gamma(r sigue una distribución gamma y luego, usando la parametrización de la escala de forma, podemos obtener una familia completa de soluciones, parametized by . Los miembros de esta familia no son traducciones unos de otros. Para ayudar a visualizar cómo podría ser una "familia de soluciones", aquí hay algunos ejemplos de distribuciones normales indexadas por , y luego distribuciones gamma indexadas por , todas con una varianza igual a cuatro, correspondiente al ejemplo en tu pregunta.θ>0μθr=4
Por otro lado, para algunas distribuciones puede o no ser posible encontrar una solución, dependiendo del valor de . Por ejemplo, si debe ser una variable de Bernoulli, entonces para hay dos posibles soluciones porque hay dos probabilidades que resuelven la ecuación , y de hecho estas dos probabilidades son complementarias, es decir, . Para solo existe la solución única , y para ninguna distribución de Bernoulli tiene una varianza suficientemente alta.
Siento que también debería mencionar el caso . También hay soluciones para este caso, por ejemplo, una distribución de Student con dos grados de libertad.
Código R para parcelas
require(ggplot2)
x.df <- data.frame(x = rep(seq(from=-8, to=8, length=100), times=5),
mu = rep(c(-4, -2, 0, 2, 4), each=100))
x.df$pdf <- dnorm(mean=x.df$mu, x.df$x)
ggplot(x.df, aes(x=x, y=pdf, group=factor(mu), colour=factor(mu))) + theme_bw() +
geom_line(size=1) + scale_colour_brewer(name=expression(mu), palette="Set1") +
theme(legend.key = element_blank()) + ggtitle("Normal distributions with variance 4")
x.df <- data.frame(x = rep(seq(from=0, to=20, length=1000), times=5),
theta = rep(c(0.25, 0.5, 1, 2, 4), each=1000))
x.df$pdf <- dgamma(x.df$x, shape=4/(x.df$theta)^2, scale=x.df$theta)
ggplot(x.df, aes(x=x, y=pdf, group=factor(theta), colour=factor(theta))) + theme_bw() +
geom_line(size=1) + scale_colour_brewer(name=expression(theta), palette="Set1") +
theme(legend.key = element_blank()) + ggtitle("Gamma distributions with variance 4") +
coord_cartesian(ylim = c(0, 1))
Suponiendo que quiere decir "¿es posible encontrar una distribución de probabilidad para ", entonces la respuesta es sí, ya que no ha especificado ningún criterio que deba satisfacer. De hecho, hay un número infinito de posibles distribuciones que satisfarían esta condición. Solo considere una distribución Normal, . Puede configurar y puede tomar cualquier valor que desee; entonces tendrá según sea necesario.X N ( x ; μ , σ 2 ) σ 2 = r μ V a r [ X ] = r
De hecho, la distribución Normal es bastante especial en este sentido, ya que es la distribución de probabilidad de entropía máxima para una media y varianza dada.
Esta pregunta puede interpretarse de una manera que la haga interesante y no del todo trivial. Dado algo que parece una variable aleatoria, ¿en qué medida es posible asignar probabilidades a sus valores (o cambiar las probabilidades existentes) de tal manera que su varianza sea igual a algún número r especificado previamente ? La respuesta es que todos los valores posibles r ≥ 0 son admisibles, hasta un límite determinado por el rango de X .
El interés potencial en dicho análisis radica en la idea de cambiar una medida de probabilidad, mientras se mantiene fija una variable aleatoria, para lograr un fin particular. Aunque esta aplicación es simple, muestra algunas de las ideas subyacentes al teorema de Girsanov , un resultado fundamental en las finanzas matemáticas.
Replanteemos esta pregunta de manera rigurosa y sin ambigüedades. Suponer
es una función medible definida en un espacio de medida con sigma-álgebra S . Para un número real dado r > 0 , ¿cuándo es posible encontrar una medida de probabilidad P en este espacio para el que Var ( X ) = r ?
Creo que la respuesta es que esto es posible cuando . (La igualdad puede mantenerse si se alcanzan tanto el supremum como el infimum: es decir, en realidad son el máximo y el mínimo de). Cuandosup(X)=∞oinf(X)=-∞, esta condición no impone límite ar, y luego todos los valores no negativos de la varianza son posibles.
La prueba es por construcción. Comencemos con una versión simple de la misma, para cuidar los detalles y precisar la idea básica, y luego pasar a la construcción real.
Deje ser la imagen de X : esto significa que hay un ω x ∈ Ohmio para los que X ( ω x ) = x . Defina la función de conjunto P : S → [ 0 , 1 ] como el indicador de ω x : es decir, P ( A ) = 0 si ω x ∉ A y P ( A ) = 1 cuando ω x .
Como , obviamente P satisface los dos primeros axiomas de probabilidad . Es necesario mostrar que satisface el tercero; a saber, que es sigma-aditivo. Pero esto es casi tan obvio: siempre que { E i , i = 1 , 2 , ... } es un conjunto finito o infinitamente contable de eventos mutuamente excluyentes, entonces ninguno de ellos contiene ω x - en cuyo caso P ( E i ) = 0 para todo i--o exactamente uno de ellos contiene , en cuyo caso P ( E j ) = 1 para algún j particular y de lo contrario P ( E i ) = 0 para todo i ≠ j . En cualquier caso
porque ambos lados son ambos o ambos 1 .
Desde concentra toda la probabilidad en ω x , la distribución de X se concentra en x y X debe tener cero varianza.
Sea dos valores en el rango de X ; es decir, X ( ω 1 ) = x 1 y X ( ω 2 ) = x 2 . De manera similar al paso anterior, defina una medida P como un promedio ponderado de los indicadores de ω 1 y ω 2 . Utilice pesos no negativos 1 - p y p para determinar p . Al igual que antes, encontramos que P--ser una combinación convexa de las medidas del indicador discutidas en (1) - es una medida de probabilidad. La distribución de con respecto a esta medida es una distribución de Bernoulli ( p ) que ha sido escalada por x 2 - x 1 y desplazada por - x 1 . Como la varianza de una distribución de Bernoulli ( p ) es p ( 1 - p ) , la varianza de X debe ser ( x 2 - x 1 ) 2 p ( .
Una consecuencia inmediata de (2) es que cualquier para la que exista x 1 ≤ x 2 en el rango de X y 0 ≤ p < 1 para la cual
puede ser la varianza de . Desde 0 ≤ p ( 1 - p ) ≤ 1 / 4 , esto implica
con igualdad manteniendo si y solo si tiene un máximo y un mínimo.
A la inversa, si excede este ligado de ( sup ( X ) - inf ( X ) ) 2 / 4 , entonces no hay solución posible, puesto que ya sabemos que la varianza de cualquier variable aleatoria acotado no puede exceder de una cuarta parte del cuadrado de su rango.
Sí, es posible encontrar dicha distribución. De hecho, puede tomar cualquier distribución con una variación finita y escalar para que coincida con su condición, porque
Por ejemplo, una distribución uniforme en el intervalo tiene varianza: σ 2 = 1 Por lo tanto, una distribución uniforme en el intervalo[0,1
De hecho, esta es una forma común de agregar parámetros a algunas distribuciones, como Student t. Tiene solo un parámetro, - grados de libertad. Cuando ν → ∞ la distribución converge a una normal estándar. Tiene forma de campana y se parece mucho a lo normal, pero tiene colas más gordas. Es por eso que a menudo se usa como una alternativa a una distribución normal cuando las colas son gordas. El único problema es que la distribución gaussiana tiene dos parámetros. Entonces, viene la versión escalada de Student t, que a veces se denomina distribución de "escala de ubicación t" . Esta es una transformación muy simple: ξ = t - μ , dondeμ,sson ubicación y escala. Ahora, puede establecer la escala de modo que la nueva variableξtenga cualquier varianza requerida y tenga una forma de distribución t de Student.