Preguntas etiquetadas con optimization

Use esta etiqueta para cualquier uso de optimización dentro de las estadísticas.




1
Cómo distribuir de manera óptima los sorteos al calcular múltiples expectativas
Supongamos que queremos calcular algunas expectativas: EYEX|Y[f(X,Y)]EYEX|Y[f(X,Y)]E_YE_{X|Y}[f(X,Y)] Supongamos que queremos aproximar esto usando la simulación de Monte Carlo. EYEX|Y[f(X,Y)]≈1RS∑r=1R∑s=1Sf(xr,s,yr)miYmiXEl |Y[F(X,Y)]≈1RS∑r=1R∑s=1SF(Xr,s,yr)E_YE_{X|Y}[f(X,Y)] \approx \frac1{RS}\sum_{r=1}^R\sum_{s=1}^Sf(x^{r,s},y^r) Pero supongamos que es costoso para extraer muestras de ambas distribuciones, por lo que sólo podemos darnos el lujo de dibujar un número fijo . KKK ¿Cómo debemos …





2
¿Cómo puedo estimar los intervalos de confianza del 95% usando la creación de perfiles para los parámetros estimados maximizando una función de log-verosimilitud usando optim en R?
¿Cómo puedo estimar los intervalos de confianza del 95% usando la creación de perfiles para los parámetros estimados maximizando una función de log-verosimilitud usando optim en R? Sé que puedo estimar asintóticamente la matriz de covarianza invirtiendo el hessian , pero me preocupa que mis datos no cumplan con los …


4
Referencias sobre optimización numérica para estadísticos
Estoy buscando una referencia sólida (o referencias) sobre técnicas de optimización numérica destinadas a los estadísticos, es decir, aplicaría estos métodos a algunos problemas de inferencia estándar (por ejemplo, MAP / MLE en modelos comunes). Cosas como el descenso de gradiente (recto y estocástico), EM y sus derivaciones / generalizaciones, …

2
Calcular curva ROC para datos
Entonces, tengo 16 ensayos en los que estoy tratando de autenticar a una persona de un rasgo biométrico usando Hamming Distance. Mi umbral está establecido en 3.5. Mis datos están a continuación y solo la prueba 1 es un verdadero positivo: Trial Hamming Distance 1 0.34 2 0.37 3 0.34 …
9 mathematical-statistics  roc  classification  cross-validation  pac-learning  r  anova  survival  hazard  machine-learning  data-mining  hypothesis-testing  regression  random-variable  non-independent  normal-distribution  approximation  central-limit-theorem  interpolation  splines  distributions  kernel-smoothing  r  data-visualization  ggplot2  distributions  binomial  random-variable  poisson-distribution  simulation  kalman-filter  regression  lasso  regularization  lme4-nlme  model-selection  aic  r  mcmc  dlm  particle-filter  r  panel-data  multilevel-analysis  model-selection  entropy  graphical-model  r  distributions  quantiles  qq-plot  svm  matlab  regression  lasso  regularization  entropy  inference  r  distributions  dataset  algorithms  matrix-decomposition  regression  modeling  interaction  regularization  expected-value  exponential  gamma-distribution  mcmc  gibbs  probability  self-study  normality-assumption  naive-bayes  bayes-optimal-classifier  standard-deviation  classification  optimization  control-chart  engineering-statistics  regression  lasso  regularization  regression  references  lasso  regularization  elastic-net  r  distributions  aggregation  clustering  algorithms  regression  correlation  modeling  distributions  time-series  standard-deviation  goodness-of-fit  hypothesis-testing  statistical-significance  sample  binary-data  estimation  random-variable  interpolation  distributions  probability  chi-squared  predictor  outliers  regression  modeling  interaction 

1
¿Cuáles son algunas de las desventajas de la optimización de hiperparámetros bayesianos?
Soy bastante nuevo en el aprendizaje automático y las estadísticas, pero me preguntaba por qué la optimización bayesiana no se refiere con mayor frecuencia en línea cuando se aprende el aprendizaje automático para optimizar los hiperparámetros de su algoritmo. Por ejemplo, utilizando un marco como este: https://github.com/fmfn/BayesianOptimization ¿La optimización bayesiana …

1
¿Cuál es la diferencia entre maximizar la probabilidad condicional (log) o la probabilidad conjunta (log) al estimar los parámetros de un modelo?
Considere una respuesta y y matriz de datos X . Supongamos que estoy creando un modelo del formulario: y ~ g (X, )θθ\theta (g () podría ser cualquier función de X y )θθ\theta Ahora, para estimar utilizando el método de máxima verosimilitud (ML), podría seguir adelante con ML condicional (suponiendo …

4
¿Busca una distribución, quizás poco común, consistente con dos puntos de datos y restricciones de expertos?
Estoy tratando de establecer una distribución previa para un metanálisis bayesiano. Tengo la siguiente información sobre una variable aleatoria: Dos observaciones: 3.0, 3.6 Un científico que estudia la variable me ha dicho que , y que valores tan altos como 6 tienen una probabilidad distinta de cero.P(X&lt;2)=P(X&gt;8)=0P(X&lt;2)=P(X&gt;8)=0P(X<2)=P(X>8)=0 He utilizado el …

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.