Preguntas etiquetadas con regression

Técnicas para analizar la relación entre una (o más) variables "dependientes" y variables "independientes".

2
¿Es incorrecto elegir características basadas en el valor p?
Hay varias publicaciones sobre cómo seleccionar funciones. Uno de los métodos describe la importancia de la característica basada en estadísticas t. En R varImp(model)aplicado en modelo lineal con características estandarizadas, se utiliza el valor absoluto del estadístico t para cada parámetro del modelo. Entonces, básicamente elegimos una característica basada en …



2
¿Cómo resolver la menor desviación absoluta por el método simplex?
Este es el problema de desviación menos absoluto en cuestión:. Sé que se puede reorganizar como problema de LP de la siguiente manera:argminwL(w)=∑ni=1|yi−wTx|arg⁡minwL(w)=∑i=1n|yi−wTx| \underset{\textbf{w}}{\arg\min} L(w)=\sum_{i=1}^{n}|y_{i}-\textbf{w}^T\textbf{x}| min∑ni=1uimin∑i=1nui\min \sum_{i=1}^{n}u_{i} ui≥xTw−yii=1,…,nui≥xTw−yii=1,…,nu_i \geq \textbf{x}^T\textbf{w}- y_{i} \; i = 1,\ldots,n ui≥−(xTw−yi)i=1,…,nui≥−(xTw−yi)i=1,…,nu_i \geq -\left(\textbf{x}^T\textbf{w}-y_{i}\right) \; i = 1,\ldots,n Pero no tengo idea de resolverlo paso a …

1
¿Puede dar una explicación intuitiva simple del método IRLS para encontrar el MLE de un GLM?
Antecedentes: Estoy tratando de seguir la revisión de Princeton de la estimación de MLE para GLM . Entiendo los conceptos básicos de la estimación MLE: likelihood, score, observada y esperada Fisher informationy la Fisher scoringtécnica. Y sé cómo justificar la regresión lineal simple con la estimación MLE . La pregunta: …





1
¿Cómo lidiar con la sobredispersión en la regresión de Poisson: cuasi-verosimilitud, GLM binomial negativo o efecto aleatorio a nivel de sujeto?
Me he encontrado con tres propuestas para tratar la sobredispersión en una variable de respuesta de Poisson y un modelo de inicio de efectos fijos: Use un cuasi modelo; Use GLM binomial negativo; Use un modelo mixto con un efecto aleatorio a nivel de sujeto. ¿Pero cuál elegir realmente y …




2
Matriz de covarianza mal condicionada en regresión GP para optimización bayesiana
Antecedentes y problema Estoy usando procesos gaussianos (GP) para la regresión y la posterior optimización bayesiana (BO). Para la regresión, uso el paquete gpml para MATLAB con varias modificaciones personalizadas, pero el problema es general. Es un hecho bien conocido que cuando dos entradas de entrenamiento están demasiado cerca en …

1
Valor esperado de , el coeficiente de determinación, bajo la hipótesis nula
Tengo curiosidad acerca de la declaración hecha en la parte inferior de la primera página de este texto con respecto al ajusteR2adjustedRadjusted2R^2_\mathrm{adjusted} R2adjusted=1−(1−R2)(n−1n−m−1).Radjusted2=1−(1−R2)(n−1n−m−1).R^2_\mathrm{adjusted} =1-(1-R^2)\left({\frac{n-1}{n-m-1}}\right). El texto dice: La lógica del ajuste es la siguiente: en la regresión múltiple ordinaria, un predictor aleatorio explica en promedio una proporción 1/(n–1)1/(n–1)1/(n – 1) …

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.