Preguntas etiquetadas con maximum-likelihood

Un método para estimar los parámetros de un modelo estadístico eligiendo el valor del parámetro que optimiza la probabilidad de observar la muestra dada.


1
¿Cuándo no puede interpretarse la distribución de muestreo frecuentista como posterior bayesiano en entornos de regresión?
Mis preguntas reales están en los últimos dos párrafos, pero para motivarlos: Si intento estimar la media de una variable aleatoria que sigue una distribución Normal con una varianza conocida, he leído que poner un uniforme antes en la media da como resultado una distribución posterior que es proporcional a …



2
Estimador imparcial para el modelo AR (
Considere un modelo AR ( ) (suponiendo una media cero por simplicidad):ppp xt=φ1xt−1+…+φpxt−p+εtxt=φ1xt−1+…+φpxt−p+εt x_t = \varphi_1 x_{t-1} + \dotsc + \varphi_p x_{t-p} + \varepsilon_t Se sabe que el estimador OLS (equivalente al estimador condicional de máxima verosimilitud) para está sesgado, como se señaló en un hilo reciente .φ:=(φ1,…,φp)φ:=(φ1,…,φp)\mathbf{\varphi} := (\varphi_1,\dotsc,\varphi_p) …






1
¿Es MLE de asintóticamente normal cuando ?
Supongamos que tiene el pdf(X,Y)(X,Y)(X,Y) fθ(x,y)=e−(x/θ+θy)1x>0,y>0,θ>0fθ(x,y)=e−(x/θ+θy)1x>0,y>0,θ>0f_{\theta}(x,y)=e^{-(x/\theta+\theta y)}\mathbf1_{x>0,y>0}\quad,\,\theta>0 Por lo tanto, la densidad de la muestra extraída de esta población(X,Y)=(Xi,Yi)1≤i≤n(X,Y)=(Xi,Yi)1≤i≤n(\mathbf X,\mathbf Y)=(X_i,Y_i)_{1\le i\le n} gθ(x,y)=∏i=1nfθ(xi,yi)=exp[−∑i=1n(xiθ+θyi)]1x1,…,xn,y1,…,yn>0=exp[−nx¯θ−θny¯]1x(1),y(1)>0,θ>0gθ(x,y)=∏i=1nfθ(xi,yi)=exp⁡[−∑i=1n(xiθ+θyi)]1x1,…,xn,y1,…,yn>0=exp⁡[−nx¯θ−θny¯]1x(1),y(1)>0,θ>0\begin{align} g_{\theta}(\mathbf x,\mathbf y)&=\prod_{i=1}^n f_{\theta}(x_i,y_i) \\&=\exp\left[{-\sum_{i=1}^n\left(\frac{x_i}{\theta}+\theta y_i\right)}\right]\mathbf1_{x_1,\ldots,x_n,y_1,\ldots,y_n>0} \\&=\exp\left[-\frac{n\bar x}{\theta}-\theta n\bar y\right]\mathbf1_{x_{(1)},y_{(1)}>0}\quad,\,\theta>0 \end{align} El estimador de máxima verosimilitud de se puede derivar comoθθ\theta θ^(X,Y)=X¯¯¯¯Y¯¯¯¯−−−√θ^(X,Y)=X¯Y¯\hat\theta(\mathbf X,\mathbf Y)=\sqrt\frac{\overline X}{\overline Y} …


1
Encuentra el MVUE único
Esta pregunta es de la Introducción a las estadísticas matemáticas de Robert Hogg, problema 7.4.9 de la sexta versión en la página 388. Deje ser iid con pdf cero en otro lugar, donde .X1,...,XnX1,...,XnX_1,...,X_nf(x;θ)=1/3θ,−θ<x<2θ,f(x;θ)=1/3θ,−θ<x<2θ,f(x;\theta)=1/3\theta,-\theta0 (a) Encuentre el mle deθ^θ^\hat{\theta}θθ\theta (b) ¿Es una estadística suficiente para ? Por qué ?θ^θ^\hat{\theta}θθ\theta (c) …

1
Derivando la función de probabilidad para IV-probit
Entonces tengo un modelo binario donde es la variable latente no observada y la observada. determina y es mi instrumento. En resumen, el modelo es. Dado que los términos de error no son independientes, Hago uso de un modelo probit IV.y∗1y1∗y_1^*y1∈{0,1}y1∈{0,1}y_1 \in \{0,1\}y2y2y_2y1y1y_1z2z2z_2y∗1y2y1===δ1z1+α1y2+u1δ21z1+δ22z2+v2=zδ+v21[y∗>0]y1∗=δ1z1+α1y2+u1y2=δ21z1+δ22z2+v2=zδ+v2y1=1[y∗>0]\begin{eqnarray} y_1^*&=& \delta_1 z_1 + \alpha_1 y_2 + …

1
Estimador de máxima verosimilitud para el mínimo de distribuciones exponenciales
Estoy atrapado en cómo resolver este problema. Entonces, tenemos dos secuencias de variables aleatorias, e para . Ahora, e son distribuciones exponenciales independientes con parámetros y . Sin embargo, en vez de observar y , observamos en lugar y .XiXiX_iYiYiY_ii=1,...,ni=1,...,ni=1,...,nXXXYYYλλ\lambdaμμ\muXXXYYYZZZWWW Z=min(Xi,Yi)Z=min(Xi,Yi)Z=\min(X_i,Y_i) y W=1W=1W=1 si Zi=XiZi=XiZ_i=X_i y 0 si Zi=YiZi=YiZ_i=Y_i . …

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.