Selección de características en un modelo lineal generalizado jerárquico bayesiano


8

Estoy buscando estimar un GLM jerárquico pero con selección de características para determinar qué covariables son relevantes a nivel de población para incluir.

Supongamos que tengo grupos con observaciones y posibles covariables. Es decir, tengo una matriz de diseño de covariables , resultados \ boldsymbol {y} _ {(N \ cdot G) \ veces 1} . Los coeficientes en estas covariables son \ beta_ {K \ times 1} .GNKx(NG)×Ky(NG)×1βK×1

Supongamos que Y ~ Bernoulli(p(x,β))

El siguiente es un GLM bayesiano jerárquico estándar con modelo de muestreo logit y coeficientes de grupo normalmente distribuidos.

L(y|x,β1,...βG)g=1Gt=1N(Pr{j=1|pt,βg})yg,t(1Pr{j=1|pt,βg})1yg,t

β1,...βsolEl |μ,Σyoyorenortere(μ,Σ)

μEl |Σnorte(μ0 0,una-1Σ)
ΣyoW(v0 0,V0 0-1)

Quiero modificar este modelo (o encontrar un documento que lo haga, o un trabajo que lo discuta) de tal manera que haya una selección de características nítidas (como en LASSO) en la dimensionalidad de β .

(1) La forma más directa y más simple sería regularizar esto a nivel de la población para restringir esencialmente la dimensionalidad de y todos tienen la misma dimensión.μβ

(2) El modelo más matizado tendría una contracción a nivel de grupo, donde la dimensión de depende de la unidad jerárquica.β

Estoy interesado en resolver 1 y 2, pero mucho más importante es 1.

Respuestas:


1

La forma en que abordaría (1) implicaría un modelo de espiga y losa, como:

βg,k=zkmg,k

zkBern(p)

mg,kN(μ,Σ)

μ,ΣNIWv0(μ0,V01)

Esta:

  • Conserva la flexibilidad en los 'del NIW antes de .βμ,Σ
  • Selección de modelos de variables para todos los grupos a la vez.
  • Fácilmente extensible al agregar un subíndice para grupo a y tener una beta común antes para cada ubicación .zg,kk

Por supuesto, creo que este es el tipo de problema donde hay varios enfoques válidos.


2

La selección de características no es un gran objetivo para tener en un análisis. A menos que todos los predictores no estén correlacionados entre sí y el tamaño de su muestra sea inmenso, los datos no podrán decirle la respuesta de manera confiable. La especificación del modelo es más importante que la selección del modelo. Los detalles se encuentran en mis notas del curso RMS . Pero la contracción, sin selección de características (por ejemplo, cresta o estimación de máxima probabilidad penalizada ) puede ser una buena idea. Los modelos bayesianos jerárquicos son aún mejores porque permiten la inferencia estadística en el modelo reducido, mientras que perdemos la mayoría de las herramientas inferenciales en el mundo frecuentista después de la reducción.L2

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.