Preguntas etiquetadas con frequentist

En el enfoque frecuentista de la inferencia, los procedimientos estadísticos se evalúan por su desempeño a lo largo de una hipotética serie de repeticiones de un proceso que se considera que generó los datos.



5
Piensa como un bayesiano, verifica como un frecuentista: ¿qué significa eso?
Estoy viendo algunas diapositivas de conferencias sobre un curso de ciencias de datos que se pueden encontrar aquí: https://github.com/cs109/2015/blob/master/Lectures/01-Introduction.pdf Lamentablemente, no puedo ver el video de esta conferencia y en un punto de la diapositiva, el presentador tiene el siguiente texto: Algunos principios clave Piensa como un Bayesiano, verifica como …



5
Cómo lidiar con datos jerárquicos / anidados en el aprendizaje automático
Explicaré mi problema con un ejemplo. Suponga que desea predecir el ingreso de un individuo dados algunos atributos: {Edad, Sexo, País, Región, Ciudad}. Tienes un conjunto de datos de entrenamiento como este train <- data.frame(CountryID=c(1,1,1,1, 2,2,2,2, 3,3,3,3), RegionID=c(1,1,1,2, 3,3,4,4, 5,5,5,5), CityID=c(1,1,2,3, 4,5,6,6, 7,7,7,8), Age=c(23,48,62,63, 25,41,45,19, 37,41,31,50), Gender=factor(c("M","F","M","F", "M","F","M","F", "F","F","F","M")), Income=c(31,42,71,65, …
29 regression  machine-learning  multilevel-analysis  correlation  dataset  spatial  paired-comparisons  cross-correlation  clustering  aic  bic  dependent-variable  k-means  mean  standard-error  measurement-error  errors-in-variables  regression  multiple-regression  pca  linear-model  dimensionality-reduction  machine-learning  neural-networks  deep-learning  conv-neural-network  computer-vision  clustering  spss  r  weighted-data  wilcoxon-signed-rank  bayesian  hierarchical-bayesian  bugs  stan  distributions  categorical-data  variance  ecology  r  survival  regression  r-squared  descriptive-statistics  cross-section  maximum-likelihood  factor-analysis  likert  r  multiple-imputation  propensity-scores  distributions  t-test  logit  probit  z-test  confidence-interval  poisson-distribution  deep-learning  conv-neural-network  residual-networks  r  survey  wilcoxon-mann-whitney  ranking  kruskal-wallis  bias  loss-functions  frequentist  decision-theory  risk  machine-learning  distributions  normal-distribution  multivariate-analysis  inference  dataset  factor-analysis  survey  multilevel-analysis  clinical-trials 



4
¿Cuáles son los valores correctos para precisión y recuperación en casos extremos?
La precisión se define como: p = true positives / (true positives + false positives) ¿Es cierto que, como true positivesy false positivesenfoque 0, la precisión se aproxima a 1? La misma pregunta para recordar: r = true positives / (true positives + false negatives) Actualmente estoy implementando una prueba …
20 precision-recall  data-visualization  logarithm  references  r  networks  data-visualization  standard-deviation  probability  binomial  negative-binomial  r  categorical-data  aggregation  plyr  survival  python  regression  r  t-test  bayesian  logistic  data-transformation  confidence-interval  t-test  interpretation  distributions  data-visualization  pca  genetics  r  finance  maximum  probability  standard-deviation  probability  r  information-theory  references  computational-statistics  computing  references  engineering-statistics  t-test  hypothesis-testing  independence  definition  r  censoring  negative-binomial  poisson-distribution  variance  mixed-model  correlation  intraclass-correlation  aggregation  interpretation  effect-size  hypothesis-testing  goodness-of-fit  normality-assumption  small-sample  distributions  regression  normality-assumption  t-test  anova  confidence-interval  z-statistic  finance  hypothesis-testing  mean  model-selection  information-geometry  bayesian  frequentist  terminology  type-i-and-ii-errors  cross-validation  smoothing  splines  data-transformation  normality-assumption  variance-stabilizing  r  spss  stata  python  correlation  logistic  logit  link-function  regression  predictor  pca  factor-analysis  r  bayesian  maximum-likelihood  mcmc  conditional-probability  statistical-significance  chi-squared  proportion  estimation  error  shrinkage  application  steins-phenomenon 



2
¿Por qué la estimación de máxima verosimilitud se considera una técnica frecuente?
Las estadísticas frecuentes para mí son sinónimo de intentar tomar decisiones que sean buenas para todas las muestras posibles. Es decir, una regla de decisión frecuentista siempre debe tratar de minimizar el riesgo frecuentista, que depende de una función de pérdida y del verdadero estado de la naturaleza :δδ\deltaLLLθ0θ0\theta_0 Rfreq=Eθ0(L(θ0,δ(Y))Rfreq=Eθ0(L(θ0,δ(Y))R_\mathrm{freq}=\mathbb{E}_{\theta_0}(L(\theta_0,\delta(Y)) …

2
Si el principio de probabilidad choca con la probabilidad frecuentista, ¿descartamos uno de ellos?
En un comentario publicado recientemente aquí, un comentarista señaló un blog de Larry Wasserman que señala (sin ninguna fuente) que los choques de inferencia frecuente con el principio de probabilidad. El principio de probabilidad simplemente dice que los experimentos que producen funciones de probabilidad similares deberían producir una inferencia similar. …

3
¿Es la estadística bayesiana realmente una mejora sobre las estadísticas tradicionales (frecuentas) para la investigación conductual?
Mientras asistía a conferencias, los defensores de las estadísticas bayesianas presionaron un poco para evaluar los resultados de los experimentos. Se jacta de ser más sensible, apropiado y selectivo hacia hallazgos genuinos (menos falsos positivos) que las estadísticas frecuentistas. He explorado un poco el tema, y ​​hasta ahora no me …


Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.