Preguntas etiquetadas con loss-functions

Una función utilizada para cuantificar la diferencia entre los datos observados y los valores pronosticados según un modelo. La minimización de las funciones de pérdida es una forma de estimar los parámetros del modelo.

1
¿Cómo encaja un estimador que minimiza una suma ponderada de sesgo cuadrado y varianza en la teoría de la decisión?
De acuerdo, mi mensaje original no pudo obtener una respuesta; entonces, déjenme plantear la pregunta de otra manera. Comenzaré explicando mi comprensión de la estimación desde una perspectiva teórica de decisión. No tengo entrenamiento formal y no me sorprendería si mi pensamiento es defectuoso de alguna manera. Supongamos que tenemos …




1
Explicación intuitiva de logloss
En varias competiciones de kaggle, la puntuación se basó en "logloss". Esto se relaciona con el error de clasificación. Aquí hay una respuesta técnica, pero estoy buscando una respuesta intuitiva. Realmente me gustaron las respuestas a esta pregunta sobre la distancia de Mahalanobis, pero PCA no es logloss. Puedo usar …

2
Comparación entre estimadores de Bayes
Considere la pérdida cuadrática , con la anterior donde . Sea la probabilidad. Encuentre el estimador de Bayes .L(θ,δ)=(θ−δ)2L(θ,δ)=(θ−δ)2L(\theta,\delta)=(\theta-\delta)^2π(θ)π(θ)\pi(\theta)π(θ)∼U(0,1/2)π(θ)∼U(0,1/2)\pi(\theta)\sim U(0,1/2)f(x|θ)=θxθ−1I[0,1](x),θ>0f(x|θ)=θxθ−1I[0,1](x),θ>0f(x|\theta)=\theta x^{\theta-1}\mathbb{I}_{[0,1]}(x), \theta>0δπδπ\delta^\pi Considere la pérdida cuadrática ponderada donde con anterior . Sea sea ​​la probabilidad. Encuentre el estimador de Bayes .Lw(θ,δ)=w(θ)(θ−δ)2Lw(θ,δ)=w(θ)(θ−δ)2L_w(\theta,\delta)=w(\theta)(\theta-\delta)^2w(θ)=I(−∞,1/2)w(θ)=I(−∞,1/2)w(\theta)=\mathbb{I}_{(-\infty,1/2)}π1(θ)=I[0,1](θ)π1(θ)=I[0,1](θ)\pi_1(\theta)=\mathbb{I}_{[0,1]}(\theta)f(x|θ)=θxθ−1I[0,1](x),θ>0f(x|θ)=θxθ−1I[0,1](x),θ>0f(x|\theta)=\theta x^{\theta-1}\mathbb{I}_{[0,1]}(x), \theta>0δπ1δ1π\delta^\pi_1 Compare yδπδπ\delta^\piδπ1δ1π\delta^\pi_1 Primero noté que , y …


2
Pérdida de bisagra con clasificador uno contra todos
Actualmente estoy mirando la forma primaria sin restricciones del clasificador uno contra todos ∑i=1NI∑k=1,k≠yiNKL(1+wk⋅xi−wyi⋅xi)∑i=1NI∑k=1,k≠yiNKL(1+wk⋅xi−wyi⋅xi)\sum\limits_{i=1}^{N_I} \sum\limits_{k=1,\atop k \neq y_i}^{N_K} L(1+ \mathbf{w_k}\cdot\mathbf{x_i}-\mathbf{w_{y_i}}\cdot\mathbf{x_i}) dónde NININ_I es el número de instancias, es el número de clases, es el número de características, es una matriz de datos , es un vector de etiquetas de clase, …

1
Comparación de residuos entre regresiones OLS y no OLS
Suponga que desea estimar un modelo lineal: ( observaciones de la respuesta y predictores ) nortenortenp + 1pags+1p+1E (yyo) =β0 0+∑j = 1pagsβjXyo jmi(yyo)=β0 0+∑j=1pagsβjXyoj\mathbb{E}(y_i) = \beta_0 + \sum_{j=1}^p \beta_j x_{ij} Una forma de hacerlo es a través de la solución OLS, es decir, elegir los coeficientes para que la …



1
Usar la regla de puntuación adecuada para determinar la pertenencia a la clase a partir de la regresión logística
Estoy usando la regresión logística para predecir la probabilidad de que ocurra un evento. En última instancia, estas probabilidades se colocan en un entorno de producción, donde nos enfocamos lo más posible en alcanzar nuestras predicciones de "Sí". Por lo tanto, es útil para nosotros tener una idea de qué …

2
¿Por qué un modelo estadístico se sobreajusta si se le da un gran conjunto de datos?
Mi proyecto actual puede requerir que construya un modelo para predecir el comportamiento de un determinado grupo de personas. el conjunto de datos de entrenamiento contiene solo 6 variables (la identificación es solo para fines de identificación): id, age, income, gender, job category, monthly spend en el cual monthly spendestá …
8 modeling  large-data  overfitting  clustering  algorithms  error  spatial  r  regression  predictive-models  linear-model  average  measurement-error  weighted-mean  error-propagation  python  standard-error  weighted-regression  hypothesis-testing  time-series  machine-learning  self-study  arima  regression  correlation  anova  statistical-significance  excel  r  regression  distributions  statistical-significance  contingency-tables  regression  optimization  measurement-error  loss-functions  image-processing  java  panel-data  probability  conditional-probability  r  lme4-nlme  model-comparison  time-series  probability  probability  conditional-probability  logistic  multiple-regression  model-selection  r  regression  model-based-clustering  svm  feature-selection  feature-construction  time-series  forecasting  stationarity  r  distributions  bootstrap  r  distributions  estimation  maximum-likelihood  garch  references  probability  conditional-probability  regression  logistic  regression-coefficients  model-comparison  confidence-interval  r  regression  r  generalized-linear-model  outliers  robust  regression  classification  categorical-data  r  association-rules  machine-learning  distributions  posterior  likelihood  r  hypothesis-testing  normality-assumption  missing-data  convergence  expectation-maximization  regression  self-study  categorical-data  regression  simulation  regression  self-study  self-study  gamma-distribution  modeling  microarray  synthetic-data 
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.