Me dieron un conjunto de 20 ítems Likert (que van desde 1-5, tamaño de muestra n = 299) dentro del campo de la investigación organizacional. Los ítems están destinados a medir un concepto latente que es multidimensional, multifacético y heterogéneo en su propia naturaleza. El objetivo es crear una (s) escala (s) que se puedan usar muy bien para analizar diferentes organizaciones y usarse en regresión logística. Después de la asociación americana de psicología, una escala debe ser (1) unidimensional, (2) confiable y (3) válida.
Por lo tanto, decidimos seleccionar cuatro dimensiones o subescalas con 4/6/6/4 elementos cada una; que se hipotetizan para representar el concepto.
Los ítems se construyeron utilizando el enfoque reflexivo (generando muchos ítems posibles, y eliminando iterativamente ítems utilizando el alfa de cronbach y la representación del concepto (validez) en tres grupos posteriores).
Usando los datos disponibles, un análisis preliminar de factores explicativos paralelos basado en correlaciones policóricas y usando la rotación varimax reveló que los ítems se cargan en otros factores de lo esperado. Hay al menos 7 factores latentes en lugar de cuatro hipotéticos. La correlación promedio entre ítems es bastante baja (r = 0.15) aunque positiva. El coeficiente cronbach-alfa también es muy bajo (0.4-0.5) para cada escala. Dudo que un análisis factorial confirmatorio produzca un buen ajuste del modelo.
Si se cayeran dos dimensiones, el cronbachs alfa sería aceptable (0.76,0.7 con 10 ítems por escala, que aún podría hacerse más grande usando la versión ordinal de cronbachs alpha) ¡pero las escalas mismas serían multidimensionales!
Como soy nuevo en estadísticas y me falta el conocimiento apropiado, no sé cómo continuar. Como soy reacio a descartar la (s) escala (s) por completo y renunciar a un enfoque solo descriptivo, tengo diferentes preguntas:
I) ¿Es incorrecto usar escalas que sean confiables, válidas pero no unidimensionales?
II) ¿Sería apropiado interpretar el concepto después como formativo y usar la prueba de tétrada de fuga para evaluar la especificación del modelo y usar mínimos cuadrados parciales (PLS) para llegar a una posible solución? Después de todo, el concepto parece ser más formativo que reflexivo.
III) ¿Sería útil usar los modelos de respuesta al ítem (Rasch, GRM, etc.)? Como he leído, los modelos rasch, etc., también necesitan la suposición de unidimensionalidad
IV) ¿Sería apropiado usar los 7 factores como nuevas "subescalas"? ¿Simplemente descarta la definición anterior y usa una nueva basada en cargas de factores?
Agradecería cualquier idea sobre este :)
EDITAR: cargas de factores y correlaciones añadidas
> fa.res$fa
Factor Analysis using method = ml
Call: fa.poly(x = fl.omit, nfactors = 7, rotate = "oblimin", fm = "ml")
Cargas de factores calculadas a partir de la matriz de patrones de factores y la matriz de intercorrelación de factores, solo se muestran los valores superiores a 0.2