Preguntas etiquetadas con generalized-linear-model

Una generalización de la regresión lineal que permite relaciones no lineales a través de una "función de enlace" y que la varianza de la respuesta dependa del valor predicho. (No debe confundirse con el "modelo lineal general" que extiende el modelo lineal ordinario a la estructura de covarianza general y la respuesta multivariada).


5
¿Los estadísticos suponen que no se puede regar en exceso una planta, o solo estoy usando los términos de búsqueda incorrectos para la regresión curvilínea?
Casi todo lo que leo sobre regresión lineal y GLM se reduce a esto: donde es una función no creciente o no decreciente de y es el parámetro que usted estimar y probar hipótesis sobre. Hay docenas de funciones de enlace y transformaciones de y para hacer una función lineal …




2
¿Por qué exactamente la regresión beta no puede tratar con 0s y 1s en la variable de respuesta?
La regresión beta (es decir, GLM con distribución beta y generalmente la función de enlace logit) a menudo se recomienda para tratar la respuesta, también conocida como variable dependiente que toma valores entre 0 y 1, como fracciones, razones o probabilidades: regresión para un resultado (relación o fracción) entre 0 …

3
¿Qué algoritmo de optimización se usa en la función glm en R?
Se puede realizar una regresión logit en R usando dicho código: > library(MASS) > data(menarche) > glm.out = glm(cbind(Menarche, Total-Menarche) ~ Age, + family=binomial(logit), data=menarche) > coefficients(glm.out) (Intercept) Age -21.226395 1.631968 Parece que el algoritmo de optimización ha convergido: hay información sobre el número de pasos del algoritmo de puntuación …






1
Residuos de desviación de Pearson VS en regresión logística
Sé que los Residuos de Pearson estandarizados se obtienen de una manera probabilística tradicional: ri=yi−πiπi(1−πi)−−−−−−−−√ri=yi−πiπi(1−πi) r_i = \frac{y_i-\pi_i}{\sqrt{\pi_i(1-\pi_i)}} y los residuos de desviación se obtienen de una manera más estadística (la contribución de cada punto a la probabilidad): di=si−2[yilogπi^+(1−yi)log(1−πi)]−−−−−−−−−−−−−−−−−−−−−−−−−−√di=si−2[yilog⁡πi^+(1−yi)log⁡(1−πi)] d_i = s_i \sqrt{-2[y_i \log \hat{\pi_i} + (1 - y_i)\log(1-\pi_i)]} donde …



Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.