Preguntas etiquetadas con estimation

Esta etiqueta es demasiado general; proporcione una etiqueta más específica. Para preguntas sobre las propiedades de estimadores específicos, use la etiqueta [estimadores] en su lugar.

2
Estimación media robusta con eficiencia de actualización O (1)
Estoy buscando una estimación sólida de la media que tiene una propiedad específica. Tengo un conjunto de elementos para los que quiero calcular esta estadística. Luego, agrego nuevos elementos uno a la vez, y para cada elemento adicional me gustaría volver a calcular la estadística (también conocida como algoritmo en …

3
Un problema de estimación en el rastreo GPS
Problema: considere dos autos (que se consideran objetos puntuales), llamados líder y seguidor F , ambos equipados con dispositivos GPS que se comunican entre sí. El objetivo de F es seguir a L lo más cerca posible, ya que este último se mueve arbitrariamente en el plano. Dado que todos …


4
Referencias sobre optimización numérica para estadísticos
Estoy buscando una referencia sólida (o referencias) sobre técnicas de optimización numérica destinadas a los estadísticos, es decir, aplicaría estos métodos a algunos problemas de inferencia estándar (por ejemplo, MAP / MLE en modelos comunes). Cosas como el descenso de gradiente (recto y estocástico), EM y sus derivaciones / generalizaciones, …


2
Calcular curva ROC para datos
Entonces, tengo 16 ensayos en los que estoy tratando de autenticar a una persona de un rasgo biométrico usando Hamming Distance. Mi umbral está establecido en 3.5. Mis datos están a continuación y solo la prueba 1 es un verdadero positivo: Trial Hamming Distance 1 0.34 2 0.37 3 0.34 …
9 mathematical-statistics  roc  classification  cross-validation  pac-learning  r  anova  survival  hazard  machine-learning  data-mining  hypothesis-testing  regression  random-variable  non-independent  normal-distribution  approximation  central-limit-theorem  interpolation  splines  distributions  kernel-smoothing  r  data-visualization  ggplot2  distributions  binomial  random-variable  poisson-distribution  simulation  kalman-filter  regression  lasso  regularization  lme4-nlme  model-selection  aic  r  mcmc  dlm  particle-filter  r  panel-data  multilevel-analysis  model-selection  entropy  graphical-model  r  distributions  quantiles  qq-plot  svm  matlab  regression  lasso  regularization  entropy  inference  r  distributions  dataset  algorithms  matrix-decomposition  regression  modeling  interaction  regularization  expected-value  exponential  gamma-distribution  mcmc  gibbs  probability  self-study  normality-assumption  naive-bayes  bayes-optimal-classifier  standard-deviation  classification  optimization  control-chart  engineering-statistics  regression  lasso  regularization  regression  references  lasso  regularization  elastic-net  r  distributions  aggregation  clustering  algorithms  regression  correlation  modeling  distributions  time-series  standard-deviation  goodness-of-fit  hypothesis-testing  statistical-significance  sample  binary-data  estimation  random-variable  interpolation  distributions  probability  chi-squared  predictor  outliers  regression  modeling  interaction 

1
¿Error al estimar el tamaño de un conjunto?
Supongamos que tenemos un conjunto A y un subconjunto B. Si sabemos | A |, entonces podemos calcular | B | al encontrar la probabilidad p de que un elemento elegido uniformemente al azar de A pertenece a B. Específicamente | A | p = | B |. Supongamos que …


2
¿Por qué la imparcialidad no implica coherencia?
Estoy leyendo aprendizaje profundo por Ian Goodfellow et al. Introduce el sesgo como donde y son el parámetro estimado y el parámetro real subyacente, respectivamente.Bias(θ)=E(θ^)−θBias(θ)=E(θ^)−θBias(\theta)=E(\hat\theta)-\thetaθ^θ^\hat\thetaθθ\theta La consistencia, por otro lado, está definida por lo que significa que para cualquier , comolimm→∞θ^m=θlimm→∞θ^m=θ\mathrm{lim}_{m\to\infty}\hat\theta_m=\thetaϵ>0ϵ>0\epsilon > 0P(|θ^m−θ|>ϵ)→0P(|θ^m−θ|>ϵ)→0P(|\hat\theta_m-\theta|>\epsilon)\to0m→∞m→∞m\to\infty Luego dice que la consistencia implica imparcialidad …

2
Estadística completa para en una
Me gustaría saber si la estadística está completa para en una configuración .T(X1, ... ,Xnorte) =∑nortei = 1(Xyo-X¯norte)2n - 1T(X1,…,Xn)=∑i=1n(Xi−X¯n)2n−1T(X_1,\ldots,X_n)=\frac{\sum_{i=1}^n (X_i-\bar{X}_n)^2}{n-1}σ2σ2\sigma^2norte( μ ,σ2)N(μ,σ2)N(\mu,\sigma^2) ¿Depende esto de si se conoce previamente o no? Si está completo para , entonces por Lehmann-Scheffé es UMVUE . Pero si se conociera \ mu , …


1
¿Cuál es la diferencia entre maximizar la probabilidad condicional (log) o la probabilidad conjunta (log) al estimar los parámetros de un modelo?
Considere una respuesta y y matriz de datos X . Supongamos que estoy creando un modelo del formulario: y ~ g (X, )θθ\theta (g () podría ser cualquier función de X y )θθ\theta Ahora, para estimar utilizando el método de máxima verosimilitud (ML), podría seguir adelante con ML condicional (suponiendo …

3
¿Puedo usar una variable que tenga una relación no lineal con la variable dependiente en la regresión logística?
Digamos que estoy construyendo un modelo de regresión logística donde la variable dependiente es binaria y puede tomar los valores. 0 000 o 111. Deje que las variables independientes seanX1,X2, . . . ,Xmetrox1,x2,...,xmx_1, x_2, ..., x_m - existen metrommvariables independientes. Digamos por elkkkEn la variable independiente, el análisis bivariado …

1
Bayesiana vs máxima entropía
Suponga que la cantidad que queremos inferir es una distribución de probabilidad. Todo lo que sabemos es que la distribución proviene de un conjunto determinado, por ejemplo, por algunos de sus momentos y tenemos una previa .mimiEQQQ El principio de entropía máxima (MEP) dice que que tiene la entropía menos …


Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.