La regresión logística se puede describir como una combinación lineal.
η=β0+β1X1+...+βkXk
que se pasa a través de la función de enlace :g
g(E(Y))=η
donde la función de enlace es una función logit
E(Y|X,β)=p=logit−1(η)
donde toma solo valores en y las funciones logit inversas transforman la combinación lineal en este rango. Aquí es donde termina la regresión logística clásica.Y{0,1}η
Sin embargo, si recuerda que para variables que toman solo valores en , entonces puede considerarse como . En este caso, la salida de la función logit podría considerarse como una probabilidad condicional de "éxito", es decir, . La distribución de Bernoulli es una distribución que describe la probabilidad de observar el resultado binario, con algún parámetro , por lo que podemos describir comoE(Y)=P(Y=1){0,1}E(Y|X,β)P(Y=1|X,β)P(Y=1|X,β)pY
yi∼Bernoulli(p)
Entonces, con la regresión logística buscamos algunos parámetros que juntos con variables independientes forman una combinación lineal . En la regresión clásica (asumimos que la función de enlace es función de identidad), sin embargo, para modelar que toma valores en necesitamos transformar para que se ajuste en el rango .X η E ( Y | X , β ) = η Y { 0 , 1 } η [ 0 , 1 ]βXηE(Y|X,β)=ηY{0,1}η[0,1]
Ahora, para estimar la regresión logística en forma bayesiana, seleccione algunos de los anteriores para los parámetros como con la regresión lineal (vea Kruschke et al, 2012 ), luego use la función logit para transformar la combinación lineal , para usar su salida como un Parámetro de distribución de Bernoulli que describe su variableEntonces, sí, en realidad usa la ecuación y la función de enlace logit de la misma manera que en el caso de los frecuentistas, y el resto funciona (por ejemplo, elegir priors), como estimar la regresión lineal de la manera bayesiana. η p YβiηpY
El enfoque simple para elegir priors es elegir distribuciones normales (pero también puede usar otras distribuciones, por ejemplo, - o distribución de Laplace para un modelo más robusto) para 's con parámetros y que están preestablecidos o tomados de antecedentes jerárquicos . Ahora, teniendo la definición del modelo, puede usar software como JAGS para realizar la simulación de Markov Chain Monte Carlo para que pueda estimar el modelo. A continuación publico el código JAGS para un modelo logístico simple (consulte aquí para obtener más ejemplos).β i μ i σ 2 itβiμiσ2i
model {
# setting up priors
a ~ dnorm(0, .0001)
b ~ dnorm(0, .0001)
for (i in 1:N) {
# passing the linear combination through logit function
logit(p[i]) <- a + b * x[i]
# likelihood function
y[i] ~ dbern(p[i])
}
}
Como puede ver, el código se traduce directamente a la definición del modelo. Lo que hace el software es que extrae algunos valores de los anteriores normales a
y b
, luego, usa esos valores para estimar p
y, finalmente, usa la función de probabilidad para evaluar la probabilidad de que sus datos tengan esos parámetros (esto es cuando usa el teorema de Bayes, consulte aquí para Descripción más detallada).
El modelo básico de regresión logística se puede ampliar para modelar la dependencia entre los predictores utilizando un modelo jerárquico (incluidos hiperpriors ). En este caso, puede dibujar 's de la distribución Normal Multivariada que nos permite incluir información sobre la covarianza entre variables independientesβiΣ
⎛⎝⎜⎜⎜⎜β0β1⋮βk⎞⎠⎟⎟⎟⎟∼MVN⎛⎝⎜⎜⎜⎜⎜⎡⎣⎢⎢⎢⎢μ0μ1⋮μk⎤⎦⎥⎥⎥⎥,⎡⎣⎢⎢⎢⎢⎢σ20σ1,0⋮σk,0σ0,1σ21⋮σk,1……⋱…σ0,kσ1,k⋮σ2k⎤⎦⎥⎥⎥⎥⎥⎞⎠⎟⎟⎟⎟⎟
... pero esto entra en detalles, así que paremos aquí.
La parte "bayesiana" aquí es elegir prioridades, usar el teorema de Bayes y definir el modelo en términos probabilísticos. Ver aquí para la definición de "modelo bayesiano" y aquí para una intuición general sobre el enfoque bayesiano . Lo que también puede notar es que definir modelos es bastante sencillo y flexible con este enfoque.
Kruschke, JK, Aguinis, H. y Joo, H. (2012). Ha llegado el momento: métodos bayesianos para el análisis de datos en las ciencias de la organización. Métodos de investigación organizacional, 15 (4), 722-752.
Gelman, A., Jakulin, A., Pittau, GM y Su, Y.-S. (2008) Una distribución previa predeterminada débilmente informativa para modelos logísticos y otros modelos de regresión. Los Anales de Estadísticas Aplicadas, 2 (4), 1360–1383.