El análisis factorial exploratorio (EFA) es apropiado (psicométricamente y de otro modo) para examinar el grado en que uno puede explicar las correlaciones entre múltiples elementos al inferir la influencia común de (un) factor (es) no medido (es decir, latente). Si esta no es su intención específica, considere análisis alternativos, por ejemplo:
- Modelado lineal general (p. Ej., Regresión múltiple, correlación canónica o (M) AN (C) OVA)
- Análisis factorial confirmatorio (CFA) o análisis de rasgo / clase / perfil latente
- Ecuación estructural (SEM) / modelado de mínimos cuadrados parciales
La dimensionalidad es el primer problema que EFA puede abordar. Puede examinar los valores propios de la matriz de covarianza (como al producir un gráfico de pantalla a través de EFA) y realizar un análisis paralelo para resolver la dimensionalidad de sus medidas. (Consulte también algunos excelentes consejos y sugerencias alternativas de William Revelle ). Debe hacerlo con cuidado antes de extraer un número limitado de factores y rotarlos en EFA, o antes de ajustar un modelo con un número específico de factores latentes usando CFA, SEM o similares. Si un análisis paralelo indica multidimensionalidad, pero su factor general (primero) supera ampliamente a todos los demás (es decir, tiene, con mucho, el mayor valor propio / explica la mayoría de la varianza en sus medidas), considere el análisis de bifactor (Gibbons y Hedeker, 1992;Reise, Moore y Haviland, 2010 ) .
Surgen muchos problemas en la EPT y el modelado de factor latente de las calificaciones de la escala Likert. Las escalas Likert producen datos ordinales (es decir, categóricos, politómicos, ordenados), no datos continuos. El análisis factorial generalmente asume que cualquier entrada de datos sin procesar es continua, y las personas a menudo realizan análisis factoriales de matrices de correlaciones momento-producto de Pearson, que solo son apropiadas para datos continuos. Aquí hay una cita de Reise y colegas (2010) :
Las técnicas analíticas del factor confirmatorio ordinario no se aplican a los datos dicotómicos o politómicos (Byrne, 2006) . En cambio, se requieren procedimientos especiales de estimación (Wirth y Edwards, 2007) . Básicamente, hay tres opciones para trabajar con datos de respuesta de elementos politómicos. El primero es calcular una matriz policórica y luego aplicar métodos analíticos de factor estándar (ver Knol y Berger, 1991) . Una segunda opción es utilizar el análisis factorial de ítems de información completa (Gibbons y Hedeker, 1992) . El tercero es utilizar procedimientos de estimación de información limitada diseñados específicamente para datos ordenados, como mínimos cuadrados ponderados con ajuste de media y varianza (MPLUS; Muthén y Muthén, 2009) .
Recomendaría combinar tanto el primer como el tercer enfoque (es decir, usar la estimación de mínimos cuadrados ponderados en diagonal en una matriz de correlación policórica), basado en la discusión de Wang y Cunningham (2005) de los problemas con alternativas típicas:
Cuando se realizó un análisis factorial confirmatorio con datos ordinales no normales utilizando la máxima probabilidad y en base a las correlaciones momento-producto de Pearson, las estimaciones de los parámetros descendentes producidas en este estudio fueron consistentes con los hallazgos de Olsson (1979) . En otras palabras, la magnitud de la no normalidad en las variables ordinales observadas es un determinante importante de la precisión de las estimaciones de los parámetros.
Los resultados también respaldan los hallazgos de Babakus, et al. (1987) . Cuando se usa la estimación de máxima verosimilitud con una matriz de entrada de correlación policórica en análisis factoriales confirmatorios, las soluciones tienden a dar como resultado valores de chi-cuadrado inaceptables y, por lo tanto, significativos junto con estadísticas de ajuste deficientes.
La pregunta sigue siendo si los investigadores deberían usar estimadores de mínimos cuadrados ponderados o de mínimos cuadrados ponderados en diagonal al estimar modelos de ecuaciones estructurales con datos categóricos no normales. Ni la estimación de mínimos cuadrados ponderados ni los mínimos cuadrados ponderados en diagonal hacen suposiciones sobre la naturaleza de la distribución de las variables y ambos métodos producen resultados válidos asintóticamente. Sin embargo, debido a que la estimación de mínimos cuadrados ponderados se basa en momentos de cuarto orden, este enfoque con frecuencia conduce a problemas prácticos y es muy exigente computacionalmente. Esto significa que la estimación de mínimos cuadrados ponderados puede carecer de robustez cuando se utiliza para evaluar modelos de tamaño medio, es decir, con 10 indicadores, de gran tamaño y de muestra pequeña a moderada.
No me queda claro si la misma preocupación con la estimación de mínimos cuadrados ponderados se aplica a la estimación DWLS; independientemente, los autores recomiendan ese estimador. En caso de que no tenga los medios ya:
- R (R Core Team, 2012) es gratis. Necesitará una versión anterior (por ejemplo,
2.15.2
) para estos paquetes:
- El
psych
paquete (Revelle, 2013) contiene la polychoric
función.
- La
fa.parallel
función puede ayudar a identificar la cantidad de factores a extraer.
- El
lavaan
paquete (Rosseel, 2012) ofrece la estimación DWLS para el análisis de variables latentes.
- El
semTools
paquete contiene las efaUnrotate
, orthRotate
y oblqRotate
funciones.
- El
mirt
paquete (Chalmers, 2012) ofrece alternativas prometedoras utilizando la teoría de respuesta al ítem.
Me imagino que Mplus (Muthén y Muthén, 1998-2011) también funcionaría, pero la versión demo gratuita no admitirá más de seis mediciones, y la versión con licencia no es barata. Sin embargo, puede valer la pena si te lo puedes permitir; ¡a la gente le encanta Mplus , y el servicio al cliente de Muthéns a través de sus foros es increíble!
Como se indicó anteriormente, la estimación DWLS supera el problema de las violaciones de la suposición de normalidad (tanto univariadas como multivariadas), que es un problema muy común y casi ubicuo en los datos de calificación de la escala Likert. Sin embargo, no es necesariamente un problema pragmáticamente consecuente; La mayoría de los métodos no son demasiado sensibles a las infracciones pequeñas (muy sesgadas) (cf. ¿Es la prueba de normalidad "esencialmente inútil"? ). La respuesta de @ chl a esta pregunta plantea puntos y sugerencias más importantes y excelentes sobre problemas con un estilo de respuesta extremo también; Definitivamente es un problema con las clasificaciones de escala Likert y otros datos subjetivos.
Referencias
· Babakus, E., Ferguson, JCE y Jöreskog, KG (1987). La sensibilidad del análisis confirmatorio del factor de máxima verosimilitud a las violaciones de la escala de medición y los supuestos de distribución. Journal of Marketing Research, 24 , 222–228.
· Byrne, BM (2006). Modelado de ecuaciones estructurales con EQS. Mahwah, Nueva Jersey: Lawrence Erlbaum.
· Chalmers, RP (2012). mirt: un paquete de teoría de respuesta a elementos multidimensional para el entorno R. Revista de software estadístico, 48 (6), 1–29. Recuperado de http://www.jstatsoft.org/v48/i06/ .
· Gibbons, RD y Hedeker, DR (1992). Análisis de bi-factor de ítems de información completa.
Psychometrika, 57 , 423–436.
· Knol, DL y Berger, MPF (1991). Comparación empírica entre análisis factorial y modelos multidimensionales de respuesta a ítems. Investigación conductual multivariante, 26 , 457–477.
· Muthén, LK, y Muthén, BO (1998-2011). Guía del usuario de Mplus (6ª ed.). Los Ángeles, CA: Muthén y Muthén.
· Muthén, LK, y Muthén, BO (2009). Mplus (Versión 4.00). [Software de ordenador]. Los Angeles, CA: Autor. URL: http://www.statmodel.com .
· Olsson, U. (1979). Estimaciones de máxima verosimilitud para el coeficiente de correlación policórica. Psychometrika, 44 , 443–460.
·R Core Team. (2012) R: Un lenguaje y entorno para la computación estadística. Fundación R para la informática estadística, Viena, Austria. ISBN 3-900051-07-0, URL: http://www.R-project.org/ .
· Reise, SP, Moore, TM y Haviland, MG (2010). Modelos de bifactorios y rotaciones: explorar el grado en que los datos multidimensionales producen puntajes de escala unívocos. Revista de evaluación de la personalidad, 92 (6), 544–559. Recuperado de http://www.ncbi.nlm.nih.gov/pmc/articles/PMC2981404/ .
· Revelle, W. (2013). Psych: procedimientos para la personalidad y la investigación psicológica. Northwestern University, Evanston, Illinois, Estados Unidos. Recuperado de http://CRAN.R-project.org/package=psych . Versión = 1.3.2.
· Rosseel, Y. (2012). lavaan: un paquete R para el modelado de ecuaciones estructurales. Revista de software estadístico, 48 (2), 1-36. Recuperado de http://www.jstatsoft.org/v48/i02/ .
· Wang, WC y Cunningham, EG (2005). Comparación de métodos de estimación alternativos en análisis factoriales confirmatorios del Cuestionario general de salud. Informes psicológicos, 97 , 3–10.
· Wirth, RJ y Edwards, MC (2007). Análisis factorial de ítems: enfoques actuales y direcciones futuras. Métodos psicológicos, 12 , 58-79. Recuperado de http://www.ncbi.nlm.nih.gov/pmc/articles/PMC3162326/ .