Estimación del parámetro de una distribución uniforme: ¿anterior inadecuado?


10

Tenemos N muestras, Xi , de una distribución uniforme [0,θ] donde θ es desconocido. Estima θ partir de los datos.

Entonces, la regla de Bayes ...

f(θ|Xi)=f(Xi|θ)f(θ)f(Xi)

y la probabilidad es:

f(Xi|θ)=i=1N1θ (editar: cuando0Xiθpara todoi, y 0 de lo contrario, gracias whuber)

pero sin otra información sobre θ , parece que lo anterior debería ser proporcional a 1 (es decir, uniforme) o a 1L (¿Jeffreys antes?) En[0,]pero luego mis integrales no convergen, y no estoy seguro de cómo proceder. ¿Algunas ideas?


2
Su probabilidad es incorrecta: será cero siempre que sea ​​menor que la X i más grande . θXi
whuber

¿Puedes mostrar qué integrales estás tomando?

Sí, entonces, supongo que no sé cómo lidiar con lo incorrecto antes. Por ejemplo, quiero escribir f[Xi]=Θf(Xi|θ)f(θ)dθ
Será el

1
f[Xi]=Θf(Xi|θ)f(θ)dθmax(Xi)θNdθmax(Xi)1N/(N1)f(θ)1/θmax(Xi)N/N.maxXi>0

1
La referencia posterior de Bernardo es Pareto; consulte el catálogo de antecedentes no informativos .
Stéphane Laurent

Respuestas:


4

Esto ha generado un debate interesante, pero tenga en cuenta que realmente no hace mucha diferencia a la pregunta de interés. Personalmente, creo que debido a que es un parámetro de escala, el argumento del grupo de transformación es apropiado, lo que lleva a un previo deθ

p(θ|I)=θ1log(UL)θ1L<θ<U

Esta distribución tiene la misma forma al reescalar el problema (la probabilidad también sigue siendo "invariante" al reescalar). El núcleo de este anterior, puede obtenerse resolviendo la ecuación funcional . Los valores dependen del problema, y ​​realmente solo importan si el tamaño de la muestra es muy pequeño (como 1 o 2). El posterior es un pareto truncado, dado por:f(y)=y1af(ay)=f(y)L,U

p(θ|DI)=NθN1(L)NUNL<θ<UwhereL=max(L,X(N))
Donde es el enésimo estadística de orden, o el valor máximo de la muestra. Obtenemos la media posterior de Si establezca y , obtenemos la expresión más simple .X(N)
E(θ|DI)=N((L)1NU1N)(N1)((L)NUN)=NN1L(1[LU]N11[LU]N)
UL0E(θ|DI)=NN1X(N)

Pero ahora supongamos que usamos un prior más general, dado por (tenga en cuenta que mantenemos los límites para garantizar que todo sea correcto; entonces no hay matemática singular) ) El posterior es el mismo que el anterior, pero con reemplazado por , siempre que . Repitiendo los cálculos anteriores, tenemos la media posterior simplificada dep(θ|cI)θc1L,UNc+Nc+N0

E(θ|DI)=N+cN+c1X(N)

Entonces el uniforme anterior ( ) dará una estimación de siempre que (la media es infinita para ). Esto muestra que el debate aquí es un poco como si se usa o no o como divisor en la estimación de la varianza.c=1N1N2X(N)N2N=2NN1

Un argumento en contra del uso del uniforme incorrecto previo en este caso es que el posterior es incorrecto cuando , ya que es proporcional a . Pero esto solo importa si o es muy pequeño.N=1θ1N=1


1

Dado que el propósito aquí es presumiblemente obtener una estimación válida y útil de , la distribución previa debe ser coherente con la especificación de la distribución de la población de la que proviene la muestra. Esto NO significa de ninguna manera que "calculemos" el uso previo de la muestra en sí; esto anularía la validez de todo el procedimiento. Sí sabemos que la población de la que proviene la muestra es una población de variables aleatorias uniformes iid, cada una de las cuales varía en . Esta es una suposición mantenida y es parte de la información previa que poseemos (y no tiene nada que ver con la muestra , es decir, con la realización específica de un subconjunto de estas variables aleatorias).θ[0,θ]

Ahora suponga que esta población consta de variables aleatorias (mientras que nuestra muestra consta de realizaciones de variables aleatorias). La suposición mantenida nos dice que mn<mn

maxi=1,...,n{Xi}maxj=1,...,m{Xj}θ

Denote para compacidad . Luego tenemos que también se puede escribir maxi=1,...,n{Xi}XθX

θ=cXc1

La función de densidad del de iid Uniform rv que varía en es maxN[0,θ]

fX(x)=N(x)N1θN

para el soporte y cero en otro lugar. Luego, usando y aplicando la fórmula de cambio de variable, obtenemos una distribución previa de que es consistente con el supuesto mantenido: [0,θ]θ=cXθ

fp(θ)=N(θc)N1θN1c=NcNθ1θ[x,]

lo cual puede ser incorrecto si no especificamos la constante adecuadamente. Pero nuestro interés radica en tener un posterior apropiado para , y también, no queremos restringir los posibles valores de (más allá de la restricción implícita en el supuesto mantenido). Entonces dejamos indeterminado. Luego escribiendo el posterior escθθc
X={x1,..,xn}

f(θX)θNNcNθ1f(θX)=ANcNθ(N+1)

para alguna constante de normalización A. Queremos

Sθf(θX)dθ=1xANcNθ(N+1)dθ=1

ANcN1NθN|x=1A=(cx)N

Inserción en la parte posterior

f(θX)=(cx)NNcNθ(N+1)=N(x)Nθ(N+1)

Tenga en cuenta que la constante indeterminada de la distribución anterior se ha cancelado convenientemente.c

La parte posterior resume toda la información que la muestra específica puede darnos con respecto al valor de . Si queremos obtener un valor específico para , podemos calcular fácilmente el valor esperado de la parte posterior, θθ

E(θX)=xθN(x)Nθ(N+1)dθ=NN1(x)NθN+1|x=NN1x

¿Hay alguna intuición en este resultado? Bueno, a medida que aumenta el número de , lo más probable es que la realización máxima entre ellos sea cada vez más cercana a su límite superior, , que es exactamente lo que refleja el valor medio posterior de : si, por ejemplo , , pero si . Esto muestra que nuestra táctica con respecto a la selección de lo anterior fue razonable y consistente con el problema en cuestión, pero no necesariamente "óptima" en algún sentido.XθθN=2E(θX)=2xN=10E(θX)=109x


1
Basar lo anterior en los datos me parece sospechoso. ¿Cómo justificas este enfoque?
whuber

2
No tengo nada en contra de que tu prior no sea "el mejor". ¿Dónde dije algo así? Solo estoy tratando de entender tu enfoque. No entiendo esta igualdad todavía. Si es constante en la igualdad , ¿eso significa que tanto como son no aleatorios? Por cierto, no utilizas el hecho de que en la derivación del anterior, ¿verdad? (cc @whuber)cθ=cXXθc1
Stéphane Laurent

1
¿Y el soporte de tu previo depende de los datos? ( )θ[x,[
Stéphane Laurent

3
Una dependencia previa (incluso si esto es solo a través del soporte) de los datos suena mal: no puede saber el máximo de la muestra antes de que se haya generado la muestra . Además, usted afirma que es una igualdad casi segura, con y azar (por lo tanto, existe una correlación ). Pero esto implica que la distribución posterior de (que es la distribución condicional de dada la muestra) es la masa de Dirac en . Y esto contradice su derivación de la distribución posterior. ... (no quedan caracteres ...)θ=cXθX1θθcx
Stéphane Laurent

1
La distribución posterior de es Dirac en significa que es . El teorema de Bayes no es la causa. Destruyes todo asumiendo . Esto implica , por lo tanto, la distribución condicional de dada es la masa de Dirac en , mientras que la suposición original es que esta distribución es la distribución uniforme en . θcxθ cxθ=cXX=θ/cXθθ/c(0,θ)
Stéphane Laurent

0

Teorema de distribución previa uniforme (caso de intervalo):

"Si la totalidad de Su información sobre externa a los datos es capturada por la proposición única entonces Su única especificación previa posible lógicamente internamente consistente es θD

B={{Possible values for θ}={the interval (a,b)},a<b}
f(θ)=Uniform(a,b)

Por lo tanto, su especificación previa debe corresponder con la anterior de Jeffrey si realmente cree en el teorema anterior ".

No forma parte del teorema uniforme de distribución previa:

Alternativamente, puede especificar su distribución anterior como una distribución de Pareto, que es la distribución conjugada para el uniforme, sabiendo que su distribución posterior tendrá que ser otra distribución uniforme por conjugación. Sin embargo, si utiliza la distribución de Pareto, deberá especificar los parámetros de la distribución de Pareto de alguna forma.f(θ)


44
Primero dice que la respuesta "solo posible lógicamente internamente consistente" es una distribución uniforme y luego procede a proponer una alternativa. Eso me parece ilógico e inconsistente :-).
whuber

2
No puedo estar de acuerdo Por ejemplo, también es el conjuntoCuando el PDF de es para . Pero de acuerdo con el "teorema", cuyo pdf es en ese intervalo. En resumen, aunque la proposición no depende de cómo se parametriza el problema, la conclusión del "teorema" depende de la parametrización, de donde es ambigua. B{θ|θ3(a3,b3)}.ΘUniform(a,b),Ψ=Θ31/(3ψ2/3(ba))a3<ψ<b3ΨUniform(a3,b3)1/(b3a3)
whuber

2
BabakP: ¿Cómo se podría decir que este es un teorema ? Un teorema es una afirmación matemática con una prueba matemática. Este "teorema" se llamaría más apropiadamente como un "principio", pero no es sensato porque es contradictorio, como lo muestra @whuber.
Stéphane Laurent

2
Gracias por la referencia BabakP. Me gustaría señalar que el "bosquejo de prueba" es falso. Draper divide el intervalo en un número finito de valores igualmente espaciados y "pasa al límite". Cualquiera puede dividir el intervalo en valores espaciados para aproximar cualquier densidad que desee y, de manera similar, pasar al límite, produciendo "especificaciones previas lógicamente coherentes internamente" perfectamente arbitrarias . Este tipo de cosas, a saber, el uso de malas matemáticas en un esfuerzo por demostrar que los no bayesianos son ilógicos, le da al análisis bayesiano un mal nombre (inmerecidamente). (cc @ Stéphane.)
whuber

1
@ Stéphane Por favor, perdona mi insensibilidad ( insensibilité ) - ¡Admiro tu habilidad para interactuar aquí en un segundo idioma y no utilizo a sabiendas términos oscuros! Bogus es un adjetivo que proviene de un término de jerga estadounidense de 200 años que se refiere a una máquina para falsificar dinero. En este caso es una máquina matemática para falsificar teoremas :-).
whuber
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.