Preguntas etiquetadas con decision-theory

27
La paradoja de la bella durmiente
La situación A algunos investigadores les gustaría dormirte. Dependiendo del lanzamiento secreto de una moneda justa, te despertarán brevemente una vez (cara) o dos veces (cruz). Después de cada vigilia, lo volverán a dormir con un medicamento que le hará olvidar ese despertar. Cuando se despierta, en qué grado debe …

7
Cuanto pagar Un problema practico
Esta no es una pregunta de trabajo a domicilio sino un problema real que enfrenta nuestra empresa. Hace muy poco (hace 2 días) pedimos la fabricación de 10000 etiquetas de productos a un distribuidor. El distribuidor es una persona independiente. Obtiene las etiquetas fabricadas desde el exterior y la empresa …

5
Cómo lidiar con datos jerárquicos / anidados en el aprendizaje automático
Explicaré mi problema con un ejemplo. Suponga que desea predecir el ingreso de un individuo dados algunos atributos: {Edad, Sexo, País, Región, Ciudad}. Tienes un conjunto de datos de entrenamiento como este train <- data.frame(CountryID=c(1,1,1,1, 2,2,2,2, 3,3,3,3), RegionID=c(1,1,1,2, 3,3,4,4, 5,5,5,5), CityID=c(1,1,2,3, 4,5,6,6, 7,7,7,8), Age=c(23,48,62,63, 25,41,45,19, 37,41,31,50), Gender=factor(c("M","F","M","F", "M","F","M","F", "F","F","F","M")), Income=c(31,42,71,65, …
29 regression  machine-learning  multilevel-analysis  correlation  dataset  spatial  paired-comparisons  cross-correlation  clustering  aic  bic  dependent-variable  k-means  mean  standard-error  measurement-error  errors-in-variables  regression  multiple-regression  pca  linear-model  dimensionality-reduction  machine-learning  neural-networks  deep-learning  conv-neural-network  computer-vision  clustering  spss  r  weighted-data  wilcoxon-signed-rank  bayesian  hierarchical-bayesian  bugs  stan  distributions  categorical-data  variance  ecology  r  survival  regression  r-squared  descriptive-statistics  cross-section  maximum-likelihood  factor-analysis  likert  r  multiple-imputation  propensity-scores  distributions  t-test  logit  probit  z-test  confidence-interval  poisson-distribution  deep-learning  conv-neural-network  residual-networks  r  survey  wilcoxon-mann-whitney  ranking  kruskal-wallis  bias  loss-functions  frequentist  decision-theory  risk  machine-learning  distributions  normal-distribution  multivariate-analysis  inference  dataset  factor-analysis  survey  multilevel-analysis  clinical-trials 



4
¿En qué condiciones coinciden los estimadores puntuales bayesianos y frecuentistas?
Con un previo plano, coinciden los estimadores ML (frecuentista - máxima verosimilitud) y MAP (Bayesiano - máximo a posteriori). Sin embargo, en términos más generales, estoy hablando de estimadores puntuales derivados como optimizadores de alguna función de pérdida. Es decir (Bayesiano) x (x^(.)=argminE(L(X−x^(y))|y) (Bayesian) x^(.)=argminE(L(X−x^(y))|y) (Bayesian) \hat x(\,. ) = …


1
Ejemplo de desigualdad estricta de von Neumann
Deje que denote el riesgo de Bayes de un estimador con respecto a un anterior , deje que denote el conjunto de todos los anteriores en el espacio de parámetros y deje que denote el conjunto de todas las reglas de decisión (posiblemente aleatorias).δ π Π Θ Δr ( π, …

2
¿Qué son estadísticas completas suficientes?
¿Tengo problemas para entender estadísticas suficientes y completas? Sea una estadística suficiente.T= Σ xyoT=ΣxiT=\Sigma x_i Si con probabilidad 1, para alguna función g , entonces es una estadística completa suficiente.E[g(T)]=0E[g(T)]=0E[g(T)]=0ggg Pero ¿qué significa esto? He visto ejemplos de uniformes y Bernoulli (página 6 http://amath.colorado.edu/courses/4520/2011fall/HandOuts/umvue.pdf ), pero no es intuitivo, me …

1
El enigma de un peluquero
Mi peluquera Stacey siempre pone una cara feliz, pero a menudo está estresada por manejar su tiempo. Hoy Stacey estaba retrasada para mi cita y se disculpó mucho. Mientras me cortaba el pelo, me preguntaba: ¿cuánto tiempo deberían durar sus citas estándar? (si la preferencia del cliente por números redondos …


3
MAP es una solución para
Me he encontrado con estas diapositivas (diapositiva 16 y 17) en uno de los cursos en línea. El instructor intentaba explicar cómo la Estimación posterior máxima (MAP) es en realidad la solución , donde es el parámetro verdaderoL(θ)=I[θ≠θ∗]L(θ)=I[θ≠θ∗]L(\theta) = \mathcal{I}[\theta \ne \theta^{*}]θ∗θ∗\theta^{*} ¿Alguien puede explicar cómo sigue esto? Editar: se …


2
Además de Durbin-Watson, ¿qué pruebas de hipótesis pueden producir resultados no concluyentes?
El estadístico de prueba de Durbin-Watson puede encontrarse en una región no concluyente, donde no es posible rechazar o no rechazar la hipótesis nula (en este caso, de autocorrelación cero). ¿Qué otras pruebas estadísticas pueden producir resultados "no concluyentes"? ¿Existe una explicación general (agitar las manos está bien) por qué …

1
¿Cómo encaja un estimador que minimiza una suma ponderada de sesgo cuadrado y varianza en la teoría de la decisión?
De acuerdo, mi mensaje original no pudo obtener una respuesta; entonces, déjenme plantear la pregunta de otra manera. Comenzaré explicando mi comprensión de la estimación desde una perspectiva teórica de decisión. No tengo entrenamiento formal y no me sorprendería si mi pensamiento es defectuoso de alguna manera. Supongamos que tenemos …

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.