Preguntas etiquetadas con maximum-likelihood

Un método para estimar los parámetros de un modelo estadístico eligiendo el valor del parámetro que optimiza la probabilidad de observar la muestra dada.

1
Cross-Entropy o Log Likelihood en la capa de salida
Leí esta página: http://neuralnetworksanddeeplearning.com/chap3.html y dijo que la capa de salida sigmoidea con entropía cruzada es bastante similar a la capa de salida softmax con log-verosimilitud. ¿Qué sucede si uso sigmoide con log-verosimilitud o softmax con entropía cruzada en la capa de salida? ¿está bien? porque veo que solo hay …

5
Cómo lidiar con datos jerárquicos / anidados en el aprendizaje automático
Explicaré mi problema con un ejemplo. Suponga que desea predecir el ingreso de un individuo dados algunos atributos: {Edad, Sexo, País, Región, Ciudad}. Tienes un conjunto de datos de entrenamiento como este train <- data.frame(CountryID=c(1,1,1,1, 2,2,2,2, 3,3,3,3), RegionID=c(1,1,1,2, 3,3,4,4, 5,5,5,5), CityID=c(1,1,2,3, 4,5,6,6, 7,7,7,8), Age=c(23,48,62,63, 25,41,45,19, 37,41,31,50), Gender=factor(c("M","F","M","F", "M","F","M","F", "F","F","F","M")), Income=c(31,42,71,65, …
29 regression  machine-learning  multilevel-analysis  correlation  dataset  spatial  paired-comparisons  cross-correlation  clustering  aic  bic  dependent-variable  k-means  mean  standard-error  measurement-error  errors-in-variables  regression  multiple-regression  pca  linear-model  dimensionality-reduction  machine-learning  neural-networks  deep-learning  conv-neural-network  computer-vision  clustering  spss  r  weighted-data  wilcoxon-signed-rank  bayesian  hierarchical-bayesian  bugs  stan  distributions  categorical-data  variance  ecology  r  survival  regression  r-squared  descriptive-statistics  cross-section  maximum-likelihood  factor-analysis  likert  r  multiple-imputation  propensity-scores  distributions  t-test  logit  probit  z-test  confidence-interval  poisson-distribution  deep-learning  conv-neural-network  residual-networks  r  survey  wilcoxon-mann-whitney  ranking  kruskal-wallis  bias  loss-functions  frequentist  decision-theory  risk  machine-learning  distributions  normal-distribution  multivariate-analysis  inference  dataset  factor-analysis  survey  multilevel-analysis  clinical-trials 

3
¿Qué tipo de información es la información de Fisher?
Supongamos que tenemos una variable aleatoria . Si fuera el parámetro verdadero, la función de probabilidad debería maximizarse y la derivada igual a cero. Este es el principio básico detrás del estimador de máxima verosimilitud.X∼f(x|θ)X∼f(x|θ)X \sim f(x|\theta)θ0θ0\theta_0 Según tengo entendido, la información de Fisher se define como I(θ)=E[(∂∂θf(X|θ))2]I(θ)=E[(∂∂θf(X|θ))2]I(\theta) = \Bbb …



5
Estimación de máxima verosimilitud: por qué se usa a pesar de estar sesgada en muchos casos
La estimación de máxima verosimilitud a menudo se traduce en estimadores sesgados (por ejemplo, su estimación de la varianza muestral está sesgada para la distribución gaussiana). ¿Qué lo hace tan popular? ¿Por qué exactamente se usa tanto? Además, ¿qué lo hace en particular mejor que el enfoque alternativo: método de …







2
¿Cómo derivar la función de probabilidad de distribución binomial para la estimación de parámetros?
Según Miller and Freund's Probability and Statistics for Engineers, 8ed (pp.217-218), la función de probabilidad de maximizar la distribución binomial (ensayos de Bernoulli) se da como L(p)=∏ni=1pxi(1−p)1−xiL(p)=∏i=1npxi(1−p)1−xiL(p) = \prod_{i=1}^np^{x_i}(1-p)^{1-x_i} ¿Cómo llegar a esta ecuación? Me parece bastante claro con respecto a las otras distribuciones, Poisson y Gaussian; L(θ)=∏ni=1PDF or PMF …

1
En R, dada una salida de optim con una matriz de arpillera, ¿cómo calcular los intervalos de confianza de los parámetros utilizando la matriz de arpillera?
Dado un resultado de optim con una matriz de arpillera, ¿cómo calcular los intervalos de confianza de los parámetros utilizando la matriz de arpillera? fit<-optim(..., hessian=T) hessian<-fit$hessian Estoy principalmente interesado en el contexto del análisis de máxima verosimilitud, pero tengo curiosidad por saber si el método puede expandirse más allá.

4
¿Cómo asegurar las propiedades de la matriz de covarianza cuando se ajusta el modelo normal multivariado usando la máxima probabilidad?
Supongamos que tengo el siguiente modelo yi=f(xi,θ)+εiyi=f(xi,θ)+εiy_i=f(x_i,\theta)+\varepsilon_i donde yi∈RKyi∈RKy_i\in \mathbb{R}^K , xixix_i es un vector de variables explicativas, θθ\theta es los parámetros de la función no lineal fff y εi∼N(0,Σ)εi∼N(0,Σ)\varepsilon_i\sim N(0,\Sigma) , donde ΣΣ\Sigma naturalmente es K×KK×KK\times K matriz. El objetivo es el habitual para estimar θθ\theta y ΣΣ\Sigma . …

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.