Preguntas etiquetadas con unbiased-estimator

Se refiere a un estimador de un parámetro de población que "alcanza el valor verdadero" en promedio. Es decir, una función de los datos observados es un estimador imparcial de un parámetro si . El ejemplo más simple de un estimador imparcial es la media muestral como estimador de la media poblacional. θ^θmi(θ^)=θ

1
Estimador imparcial con varianza mínima para
Sea una muestra aleatoria de una distribución para . Es decir,X1,...,XnX1,...,Xn X_1, ...,X_nGeometric(θ)Geometric(θ)Geometric(\theta)0&lt;θ&lt;10&lt;θ&lt;10<\theta<1 pθ(x)=θ(1−θ)x−1I{1,2,...}(x)pθ(x)=θ(1−θ)x−1I{1,2,...}(x)p_{\theta}(x)=\theta(1-\theta)^{x-1} I_{\{1,2,...\}}(x) Encuentre el estimador imparcial con varianza mínima parag(θ)=1θg(θ)=1θg(\theta)=\frac{1}{\theta} Mi intento: Como la distribución geométrica es de la familia exponencial, la estadística es completa y suficiente para . Además, si es un estimador para , es …


2
Mejorando el estimador mínimo
Supongamos que tengo nnn parámetros positivos para estimar μ1,μ2,...,μnμ1,μ2,...,μn\mu_1,\mu_2,...,\mu_n y sus correspondientes nnn estimaciones insesgadas producidos por los estimadores μ1^,μ2^,...,μn^μ1^,μ2^,...,μn^\hat{\mu_1},\hat{\mu_2},...,\hat{\mu_n} , es decir, E[μ1^]=μ1E[μ1^]=μ1\mathrm E[\hat{\mu_1}]=\mu_1 , E[μ2^]=μ2E[μ2^]=μ2\mathrm E[\hat{\mu_2}]=\mu_2 y así sucesivamente. Me gustaría estimar min(μ1,μ2,...,μn)min(μ1,μ2,...,μn)\mathrm{min}(\mu_1,\mu_2,...,\mu_n) utilizando las estimaciones a la mano. Es evidente que el ingenuo estimador min(μ1^,μ2^,...,μn^)min(μ1^,μ2^,...,μn^)\mathrm{min}(\hat{\mu_1},\hat{\mu_2},...,\hat{\mu_n}) es parcial …

1
¿Qué modelo de aprendizaje profundo puede clasificar categorías que no son mutuamente excluyentes?
Ejemplos: Tengo una oración en la descripción del trabajo: "Ingeniero senior de Java en el Reino Unido". Quiero usar un modelo de aprendizaje profundo para predecirlo en 2 categorías: English y IT jobs. Si uso el modelo de clasificación tradicional, solo puede predecir 1 etiqueta con softmaxfunción en la última …
9 machine-learning  deep-learning  natural-language  tensorflow  sampling  distance  non-independent  application  regression  machine-learning  logistic  mixed-model  control-group  crossover  r  multivariate-analysis  ecology  procrustes-analysis  vegan  regression  hypothesis-testing  interpretation  chi-squared  bootstrap  r  bioinformatics  bayesian  exponential  beta-distribution  bernoulli-distribution  conjugate-prior  distributions  bayesian  prior  beta-distribution  covariance  naive-bayes  smoothing  laplace-smoothing  distributions  data-visualization  regression  probit  penalized  estimation  unbiased-estimator  fisher-information  unbalanced-classes  bayesian  model-selection  aic  multiple-regression  cross-validation  regression-coefficients  nonlinear-regression  standardization  naive-bayes  trend  machine-learning  clustering  unsupervised-learning  wilcoxon-mann-whitney  z-score  econometrics  generalized-moments  method-of-moments  machine-learning  conv-neural-network  image-processing  ocr  machine-learning  neural-networks  conv-neural-network  tensorflow  r  logistic  scoring-rules  probability  self-study  pdf  cdf  classification  svm  resampling  forecasting  rms  volatility-forecasting  diebold-mariano  neural-networks  prediction-interval  uncertainty 

1
¿Los estimadores eficientes imparciales son estocásticamente dominantes sobre otros estimadores imparciales (medianos)?
Descripción general ¿Un estimador eficiente (que tiene una varianza muestral igual al límite de Cramér-Rao) maximiza la probabilidad de estar cerca del parámetro verdadero ?θθ\theta Digamos que comparamos la diferencia o la diferencia absoluta entre la estimación y el parámetro verdaderoΔ^=θ^- θΔ^=θ^-θ\hat\Delta = \hat \theta - \theta ¿Es la distribución …

2
¿Por qué la imparcialidad no implica coherencia?
Estoy leyendo aprendizaje profundo por Ian Goodfellow et al. Introduce el sesgo como donde y son el parámetro estimado y el parámetro real subyacente, respectivamente.Bias(θ)=E(θ^)−θBias(θ)=E(θ^)−θBias(\theta)=E(\hat\theta)-\thetaθ^θ^\hat\thetaθθ\theta La consistencia, por otro lado, está definida por lo que significa que para cualquier , comolimm→∞θ^m=θlimm→∞θ^m=θ\mathrm{lim}_{m\to\infty}\hat\theta_m=\thetaϵ&gt;0ϵ&gt;0\epsilon > 0P(|θ^m−θ|&gt;ϵ)→0P(|θ^m−θ|&gt;ϵ)→0P(|\hat\theta_m-\theta|>\epsilon)\to0m→∞m→∞m\to\infty Luego dice que la consistencia implica imparcialidad …


1
¿Debería corregirse la desviación estándar en una prueba T de Student?
Usando la prueba T de Student, T-Critical se calcula mediante: t =X¯-μ0 0s /norte√t=X¯−μ0s/nt = \frac{\bar{X} - \mu_{0}}{s / \sqrt{n}} Mirando el artículo de Wikipedia sobre la Estimación imparcial de la desviación estándar, hay una sección Resultado para la Distribución normal que menciona un factor de corrección para la desviación …

1
Ecuación correcta para la covarianza muestral imparcial ponderada
Estoy buscando la ecuación correcta para calcular la covarianza muestral imparcial ponderada. Las fuentes de Internet son bastante raras en este tema y todas usan ecuaciones diferentes. La ecuación más probable que he encontrado es esta: qjk=∑Ni=1wi(∑Ni=1wi)2−∑Ni=1w2i∑Ni=1wi(xij−x¯j)(xik−x¯k).qjk=∑i=1Nwi(∑i=1Nwi)2−∑i=1Nwi2∑i=1Nwi(xij−x¯j)(xik−x¯k).q_{jk}=\frac{\sum_{i=1}^{N}w_i}{\left(\sum_{i=1}^{N}w_i\right)^2-\sum_{i=1}^{N}w_i^2} \sum_{i=1}^N w_i \left( x_{ij}-\bar{x}_j \right) \left( x_{ik}-\bar{x}_k \right) . De: https://en.wikipedia.org/wiki/Sample_mean_and_sample_covariance#Weighted_samples Por supuesto, …

2
¿La curtosis de la muestra está sesgada irremediablemente?
Estoy viendo la muestra de curtosis de una variable aleatoria bastante sesgada, y los resultados parecen inconsistentes. Para ilustrar simplemente el problema, miré la curtosis de muestra de un RV log-normal. En R (que estoy aprendiendo lentamente): library(moments); samp_size = 2048; n_trial = 4096; kvals &lt;- rep(NA,1,n_trial); #preallocate for (iii …


1
Estimadores imparciales de asimetría y curtosis
La asimetría y la curtosis se definen como: ζ3=mi[ ( X- μ)3]mi[ ( X- μ)2]3 / 2=μ3σ3ζ3=mi[(X-μ)3]mi[(X-μ)2]3/ /2=μ3σ3\zeta_3 = \frac{E[(X-\mu)^3]}{E[(X-\mu)^2]^{3/2}} = \frac{\mu_3}{\sigma^3} ζ4 4=mi[ ( X- μ)4 4]mi[ ( X- μ)2]2=μ4 4σ4 4ζ4 4=mi[(X-μ)4 4]mi[(X-μ)2]2=μ4 4σ4 4\zeta_4 = \frac{E[(X-\mu)^4]}{E[(X-\mu)^2]^2} = \frac{\mu_4}{\sigma^4} Las siguientes fórmulas se utilizan para calcular el sesgo …




Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.