Preguntas etiquetadas con maximum-likelihood

Un método para estimar los parámetros de un modelo estadístico eligiendo el valor del parámetro que optimiza la probabilidad de observar la muestra dada.




2
¿Para qué modelos el sesgo de MLE cae más rápido que la varianza?
θ^θ^\hat\thetaθ∗θ∗\theta^*nnn∥θ^−θ∗∥‖θ^−θ∗‖\lVert\hat\theta-\theta^*\rVertO(1/n−−√)O(1/n)O(1/\sqrt n)∥Eθ^−θ∗∥‖Eθ^−θ∗‖\lVert \mathbb E\hat\theta - \theta^*\rVert∥Eθ^−θ^∥‖Eθ^−θ^‖\lVert \mathbb E\hat\theta - \hat\theta\rVertO(1/n−−√)O(1/n)O(1/\sqrt{n}) Estoy interesado en los modelos que tienen un sesgo que se reduce más rápido que O(1/n−−√)O(1/n)O(1/\sqrt n) , pero donde el error no se reduce a esta velocidad más rápida porque la desviación todavía se reduce como O(1/n−−√)O(1/n)O(1/\sqrt n) . …


1
¿Por qué deberíamos discutir los comportamientos de convergencia de diferentes estimadores en diferentes topologías?
En el primer capítulo del libro Algebraic Geometry and Statistical Learning Theory, que habla sobre la convergencia de las estimaciones en diferentes espacios funcionales, menciona que la estimación bayesiana corresponde a la topología de distribución de Schwartz, mientras que la estimación de máxima verosimilitud corresponde a la topología supranormal (en …

1
Caret glmnet vs cv.glmnet
Parece haber mucha confusión en la comparación de usar glmnetdentro caretpara buscar una lambda óptima y usar cv.glmnetpara hacer la misma tarea. Se plantearon muchas preguntas, por ejemplo: Modelo de clasificación train.glmnet vs. cv.glmnet? ¿Cuál es la forma correcta de usar glmnet con caret? Validación cruzada de `glmnet` usando` caret` …


1
¿Una regresión logística que maximiza la probabilidad necesariamente también maximiza el AUC sobre los modelos lineales?
Dado un conjunto de datos con resultados binarios algunas matrices de predicción , el modelo de regresión logística estándar estima los coeficientes que maximizan la probabilidad binomial. Cuando X es rango completo, \ beta_ {MLE} es único; cuando la separación perfecta no está presente, es finita.y∈{0,1}ny∈{0,1}ny\in\{0,1\}^nX∈Rn×pX∈Rn×pX\in\mathbb{R}^{n\times p}βMLEβMLE\beta_{MLE}XXXβMLEβMLE\beta_{MLE} ¿Este modelo de …




3
Regresión lineal: ¿alguna distribución no normal que proporcione identidad de OLS y MLE?
Esta pregunta está inspirada en la larga discusión en los comentarios aquí: ¿Cómo usa la regresión lineal la distribución normal? En el modelo de regresión lineal habitual, para simplificar aquí escrito con un solo predictor: Yi=β0+β1xi+ϵiYi=β0+β1xi+ϵi Y_i = \beta_0 + \beta_1 x_i + \epsilon_i donde xixix_i son constantes conocidas y …


1
MLE del parámetro de ubicación en una distribución de Cauchy
Después de centrar, se puede suponer que las dos mediciones x y −x son observaciones independientes de una distribución de Cauchy con función de densidad de probabilidad: 1f(x:θ)=f(x:θ)=f(x :\theta) = ,-∞&lt;x&lt;∞1π(1+(x−θ)2)1π(1+(x−θ)2)1\over\pi (1+(x-\theta)^2) ,−∞&lt;x&lt;∞,−∞&lt;x&lt;∞, -∞ < x < ∞ Muestre que si el MLE de θ es 0, pero si x …

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.