Preguntas etiquetadas con maximum-likelihood

Un método para estimar los parámetros de un modelo estadístico eligiendo el valor del parámetro que optimiza la probabilidad de observar la muestra dada.

2
¿Cuál es la estimación de máxima verosimilitud de la covarianza de los datos normales bivariados cuando se conocen la media y la varianza?
Supongamos que tenemos una muestra aleatoria de una distribución normal bivariada que tiene ceros como medias y unos como varianzas, por lo que el único parámetro desconocido es la covarianza. ¿Cuál es el MLE de la covarianza? Sé que debería ser algo así como pero ¿cómo sabemos esto?1norte∑nortej = 1Xjyj1n∑j=1nxjyj\frac{1}{n} …



1
¿Cómo incorporo un valor atípico innovador en la observación 48 en mi modelo ARIMA?
Estoy trabajando en un conjunto de datos. Después de usar algunas técnicas de identificación de modelos, obtuve un modelo ARIMA (0,2,1). Utilicé la detectIOfunción en el paquete TSAen R para detectar un valor atípico innovador (IO) en la observación número 48 de mi conjunto de datos original. ¿Cómo incorporo este …
10 r  time-series  arima  outliers  hypergeometric  fishers-exact  r  time-series  intraclass-correlation  r  logistic  glmm  clogit  mixed-model  spss  repeated-measures  ancova  machine-learning  python  scikit-learn  distributions  data-transformation  stochastic-processes  web  standard-deviation  r  machine-learning  spatial  similarities  spatio-temporal  binomial  sparse  poisson-process  r  regression  nonparametric  r  regression  logistic  simulation  power-analysis  r  svm  random-forest  anova  repeated-measures  manova  regression  statistical-significance  cross-validation  group-differences  model-comparison  r  spatial  model-evaluation  parallel-computing  generalized-least-squares  r  stata  fitting  mixture  hypothesis-testing  categorical-data  hypothesis-testing  anova  statistical-significance  repeated-measures  likert  wilcoxon-mann-whitney  boxplot  statistical-significance  confidence-interval  forecasting  prediction-interval  regression  categorical-data  stata  least-squares  experiment-design  skewness  reliability  cronbachs-alpha  r  regression  splines  maximum-likelihood  modeling  likelihood-ratio  profile-likelihood  nested-models 

1
¿Por qué Anova () y drop1 () proporcionaron diferentes respuestas para GLMM?
Tengo un GLMM de la forma: lmer(present? ~ factor1 + factor2 + continuous + factor1*continuous + (1 | factor3), family=binomial) Cuando lo uso drop1(model, test="Chi"), obtengo resultados diferentes a los que uso Anova(model, type="III")del paquete del automóvil o summary(model). Estos dos últimos dan las mismas respuestas. Usando un montón de …
10 r  anova  glmm  r  mixed-model  bootstrap  sample-size  cross-validation  roc  auc  sampling  stratification  random-allocation  logistic  stata  interpretation  proportion  r  regression  multiple-regression  linear-model  lm  r  cross-validation  cart  rpart  logistic  generalized-linear-model  econometrics  experiment-design  causality  instrumental-variables  random-allocation  predictive-models  data-mining  estimation  contingency-tables  epidemiology  standard-deviation  mean  ancova  psychology  statistical-significance  cross-validation  synthetic-data  poisson-distribution  negative-binomial  bioinformatics  sequence-analysis  distributions  binomial  classification  k-means  distance  unsupervised-learning  euclidean  correlation  chi-squared  spearman-rho  forecasting  excel  exponential-smoothing  binomial  sample-size  r  change-point  wilcoxon-signed-rank  ranks  clustering  matlab  covariance  covariance-matrix  normal-distribution  simulation  random-generation  bivariate  standardization  confounding  z-statistic  forecasting  arima  minitab  poisson-distribution  negative-binomial  poisson-regression  overdispersion  probability  self-study  markov-process  estimation  maximum-likelihood  classification  pca  group-differences  chi-squared  survival  missing-data  contingency-tables  anova  proportion 

1
¿Cómo utiliza el algoritmo EM para calcular los MLE para una formulación variable latente de un modelo de Poisson inflado a cero?
El modelo de regresión de Poisson inflado a cero se define para una muestra por y además supone que los parámetros \ mathbf {\ lambda} = (\ lambda_1, \ dots, \ lambda_n) y \ textbf {p} = (p_1, \ dots, p_n) satisfacen(y1,…,yn)(y1,…,yn)(y_1,\ldots,y_n)λ = ( λ 1 , ... , λ …

1
Prueba de hipótesis en la matriz de covarianza inversa
Supongamos que observo iid , y deseo probar vech para un matriz conformable y vector . ¿Hay trabajo conocido sobre este problema?xi∼N(μ,Σ)xi∼N(μ,Σ)x_i \sim \mathcal{N}\left(\mu,\Sigma\right)H0:A H0:A H_0: A\ (Σ−1)=a(Σ−1)=a\left(\Sigma^{-1}\right) = aAAAaaa El intento obvio (para mí) sería a través de una prueba de razón de probabilidad, pero parece que maximizar la …

2
Un buen libro con igual énfasis en teoría y matemáticas.
He tenido suficientes cursos sobre estadísticas durante mis años escolares y en la universidad. Tengo una buena comprensión de los conceptos, como CI, valores p, interpretación de significación estadística, pruebas múltiples, correlación, regresión lineal simple (con mínimos cuadrados) (modelos lineales generales) y todas las pruebas de hipótesis. Me lo habían …

2
La trinidad de las pruebas con la máxima probabilidad: ¿qué hacer ante las conclusiones contradictorias?
Las pruebas de Wald, Razón de probabilidad y Multiplicador de Lagrange en el contexto de la estimación de máxima verosimilitud son asintóticamente equivalentes. Sin embargo, para muestras pequeñas, tienden a divergir bastante y, en algunos casos, dan lugar a conclusiones diferentes. ¿Cómo pueden clasificarse según la probabilidad de que rechacen …

1
¿Cuál es la probabilidad de este proceso?
Un paciente ingresa en el hospital. Su duración de estadía depende de 2 cosas: la gravedad de su lesión y cuánto está dispuesto a pagar su seguro para mantenerlos en el hospital. Algunos pacientes se irán prematuramente si su seguro decide dejar de pagar su estadía. Suponga lo siguiente: 1) …




1
¿Por qué la parte posterior bayesiana se concentra alrededor del minimizador de la divergencia KL?
Considere la bayesiana posterior . Asintóticamente, su máximo ocurre en la estimación MLE , que simplemente maximiza la probabilidad .θ ∣ Xθ∣X\theta\mid Xθ argmin θθ^θ^\hat \thetaargminθFθ( X)argminθfθ(X)\operatorname{argmin}_\theta\, f_\theta(X) Todos estos conceptos (antecedentes bayesianos, maximizando la probabilidad) suenan súper principios y no son en absoluto arbitrarios. No hay un registro a …


Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.