Preguntas etiquetadas con estimation

Esta etiqueta es demasiado general; proporcione una etiqueta más específica. Para preguntas sobre las propiedades de estimadores específicos, use la etiqueta [estimadores] en su lugar.

1
Encuentra UMVUE de
Dejar que X1,X2,...,XnX1,X2,...,XnX_1, X_2, . . . , X_n iid variables aleatorias que tienen pdf fX(x∣θ)=θ(1+x)−(1+θ)I(0,∞)(x)fX(x∣θ)=θ(1+x)−(1+θ)I(0,∞)(x)f_X(x\mid\theta) =\theta(1 +x)^{−(1+\theta)}I_{(0,\infty)}(x) donde θ>0θ>0\theta >0 . Dar el UMVUE de 1θ1θ\frac{1}{\theta} y calcula su varianza He aprendido acerca de dos métodos para obtener UMVUE: Límite inferior Cramer-Rao (CRLB) Lehmann-Scheffe Thereom Voy a intentar esto …


2
¿Podemos rechazar una hipótesis nula con intervalos de confianza producidos mediante muestreo en lugar de la hipótesis nula?
Me han enseñado que podemos producir una estimación de parámetros en forma de un intervalo de confianza después del muestreo de una población. Por ejemplo, los intervalos de confianza del 95%, sin supuestos violados, deberían tener una tasa de éxito del 95% de contener cualquier parámetro verdadero que estemos estimando …


1
¿Qué modelo de aprendizaje profundo puede clasificar categorías que no son mutuamente excluyentes?
Ejemplos: Tengo una oración en la descripción del trabajo: "Ingeniero senior de Java en el Reino Unido". Quiero usar un modelo de aprendizaje profundo para predecirlo en 2 categorías: English y IT jobs. Si uso el modelo de clasificación tradicional, solo puede predecir 1 etiqueta con softmaxfunción en la última …
9 machine-learning  deep-learning  natural-language  tensorflow  sampling  distance  non-independent  application  regression  machine-learning  logistic  mixed-model  control-group  crossover  r  multivariate-analysis  ecology  procrustes-analysis  vegan  regression  hypothesis-testing  interpretation  chi-squared  bootstrap  r  bioinformatics  bayesian  exponential  beta-distribution  bernoulli-distribution  conjugate-prior  distributions  bayesian  prior  beta-distribution  covariance  naive-bayes  smoothing  laplace-smoothing  distributions  data-visualization  regression  probit  penalized  estimation  unbiased-estimator  fisher-information  unbalanced-classes  bayesian  model-selection  aic  multiple-regression  cross-validation  regression-coefficients  nonlinear-regression  standardization  naive-bayes  trend  machine-learning  clustering  unsupervised-learning  wilcoxon-mann-whitney  z-score  econometrics  generalized-moments  method-of-moments  machine-learning  conv-neural-network  image-processing  ocr  machine-learning  neural-networks  conv-neural-network  tensorflow  r  logistic  scoring-rules  probability  self-study  pdf  cdf  classification  svm  resampling  forecasting  rms  volatility-forecasting  diebold-mariano  neural-networks  prediction-interval  uncertainty 


2
Comparación entre estimadores de Bayes
Considere la pérdida cuadrática , con la anterior donde . Sea la probabilidad. Encuentre el estimador de Bayes .L(θ,δ)=(θ−δ)2L(θ,δ)=(θ−δ)2L(\theta,\delta)=(\theta-\delta)^2π(θ)π(θ)\pi(\theta)π(θ)∼U(0,1/2)π(θ)∼U(0,1/2)\pi(\theta)\sim U(0,1/2)f(x|θ)=θxθ−1I[0,1](x),θ>0f(x|θ)=θxθ−1I[0,1](x),θ>0f(x|\theta)=\theta x^{\theta-1}\mathbb{I}_{[0,1]}(x), \theta>0δπδπ\delta^\pi Considere la pérdida cuadrática ponderada donde con anterior . Sea sea ​​la probabilidad. Encuentre el estimador de Bayes .Lw(θ,δ)=w(θ)(θ−δ)2Lw(θ,δ)=w(θ)(θ−δ)2L_w(\theta,\delta)=w(\theta)(\theta-\delta)^2w(θ)=I(−∞,1/2)w(θ)=I(−∞,1/2)w(\theta)=\mathbb{I}_{(-\infty,1/2)}π1(θ)=I[0,1](θ)π1(θ)=I[0,1](θ)\pi_1(\theta)=\mathbb{I}_{[0,1]}(\theta)f(x|θ)=θxθ−1I[0,1](x),θ>0f(x|θ)=θxθ−1I[0,1](x),θ>0f(x|\theta)=\theta x^{\theta-1}\mathbb{I}_{[0,1]}(x), \theta>0δπ1δ1π\delta^\pi_1 Compare yδπδπ\delta^\piδπ1δ1π\delta^\pi_1 Primero noté que , y …


1
De la identificación a la estimación
Actualmente estoy leyendo el artículo de Pearl (Pearl, 2009, 2ª edición) sobre causalidad y lucha para establecer el vínculo entre la identificación no paramétrica de un modelo y la estimación real. Desafortunadamente, el propio Pearl no dice nada sobre este tema. Para dar un ejemplo, tengo en mente un modelo …





2
¿Cómo un uniforme anterior conduce a las mismas estimaciones de máxima probabilidad y modo de posterior?
Estoy estudiando diferentes métodos de estimación puntual y leí que cuando usamos estimaciones MAP vs ML, cuando usamos un "uniforme previo", las estimaciones son idénticas. ¿Alguien puede explicar qué es un "uniforme" anterior y dar algunos ejemplos (simples) de cuándo los estimadores MAP y ML serían los mismos?

1
¿El R-cuadrado ajustado busca estimar la puntuación fija o la población de puntuación aleatoria r-cuadrado?
La población r-cuadrado se puede definir suponiendo puntuaciones fijas o puntuaciones aleatorias:ρ2ρ2\rho^2 Puntuaciones fijas: el tamaño de la muestra y los valores particulares de los predictores se mantienen fijos. Por lo tanto, es la proporción de varianza explicada en el resultado por la ecuación de regresión de la población cuando …

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.