La carga en el análisis factorial o en PCA ( ver 1 , ver 2 , ver 3 ) es el coeficiente de regresión, ponderación en una combinación lineal que predice variables (ítems) por factores / componentes estandarizados (varianza unitaria).
Razones para que una carga exceda :1
Razón 1: matriz de covarianza analizada.
Si se analizaron variables estandarizadas, es decir, el análisis se basó en la matriz de correlación , luego de la extracción o después de la rotación ortogonal (como varimax), cuando los factores / componentes permanecen sin correlación, las cargas también son los coeficientes de correlación. Esa es la propiedad de la ecuación de regresión lineal: con predictores estandarizados ortogonales, los parámetros equivalen a las correlaciones de Pearson. Entonces, en tal caso, la carga no puede ser más allá de [-1, 1].
Pero si se analizaron solo variables centradas, es decir, el análisis se basó en una matriz de covarianza , entonces las cargas no tienen que limitarse a [-1, 1] porque los coeficientes de regresión es que tal modelo no necesita ser igual a los coeficientes de correlación. Son, en realidad, covarianzas. Tenga en cuenta que se trataba de cargas en bruto. Existen cargas "reescaladas" o "estandarizadas" (descritas en los enlaces que di en el primer párrafo) que se reescalan para no abandonar la banda [-1, 1].
Motivo 2: rotación oblicua. Después de la rotación oblicua , como promax u oblimin, tenemos dos tipos de cargas: matriz de patrón (coeficientes de regresión o cargas per se) y matriz de estructura (coeficientes de correlación). No son iguales entre sí debido a la razón dada anteriormente: los coeficientes de regresión de los predictores correlacionados son diferentes de las correlaciones de Pearson. Por lo tanto, una carga de patrón puede estar fácilmente más allá de [-1, 1]. Tenga en cuenta que es cierto incluso cuando la matriz de correlación fue la matriz analizada. Entonces, así es como los factores / componentes son oblicuos.
Motivo 3 (raro): caso Heywood. El caso de Heywood ( pt 6 ) es una dificultad en los algoritmos de análisis factorial cuando la carga de iteraciones excede la magnitud teóricamente permitida; ocurre cuando la comunalidad supera la varianza. El caso de Heywood es una situación rara y se encuentra en algunos conjuntos de datos, generalmente cuando hay muy pocas variables para admitir la cantidad de factores solicitada. Los programas informan que hay un error de caso Heywood y detienen o intentan resolverlo.