Sí, puede, y de hecho esto es precisamente lo que hace el paquete R GLMNET para la regresión logística multinomial. Escribiendo la función log-verosimilitud como:
LogL=∑i∑cniclog(pic)
Donde denota observaciones yc denota las categorías multinomiales n i c es el recuento observado para la observación i en la categoría c . Las observaciones se definen por sus combinaciones de covariables únicas, o alternativamente podemos permitir duplicados y establecer cada n i c = 1 para que tengamos datos categóricos "binarios" (... no sé cuál es el plural de binario ... ..). Para la regresión logística, las probabilidades se definen como:icnicicnic=1
pic=exp(xTiβc)∑c′exp(xTiβc′)
Esta es una parametrización de rango inferior al completo y puede ser útil si está utilizando probabilidad penalizada (como GLMNET). En principio, podríamos usar IRLS / newton rhapson en la matriz beta completa , sin embargo, terminará con matrices de peso no diagonales. Alternativamente, podemos optimizar el "estilo Gibbs" arreglando todas las categorías betas excepto una, y luego optimizando solo esa categoría. Luego pase a la siguiente categoría, y así sucesivamente. Puedes ver eso porque las probabilidades tienen la forma(β1,…,βC)
pic′=B
pic=exp(xTiβc)exp(xTiβc)+A where ∂A∂βc=0
pic′=Bexp(xTiβc)+A where ∂B∂βc=0
Que la expansión cuadrática sobre tendrá la misma forma que para la regresión logística, pero con los pesos de IRLS calculados de manera diferente, aunque todavía tenemos W i i , c = n i c p i c ( 1 - p i c ) en el usual ( X T W X ) - 1 X T W Y actualización de beta.βcWii,c=nicpic(1−pic)(XTWX)−1XTWY