Aunque todavía falta información (No. individuos y artículos por subescala), aquí hay algunos consejos generales sobre la reducción de escala. Además, dado que está trabajando a nivel de cuestionario, no veo por qué su longitud es tan importante (después de todo, solo dará estadísticas resumidas, como puntajes totales o medios).
Asumiré que (a) tienes un conjunto de elementos K que miden alguna construcción relacionada con la moral, (b) tu escala "unidimensional" es un factor de segundo orden que podría subdividirse en diferentes facetas, (c) te gustaría reduzca su escala a k <K elementos para resumir con suficiente precisión los puntajes de escala totalizados de los sujetos mientras preserva la validez de contenido de la escala.
Acerca de la validez de contenido / construcción de esta escala validada: El número de elementos ciertamente se ha elegido para reflejar mejor la construcción de interés. Al acortar el cuestionario, en realidad está reduciendo la cobertura del constructo. Sería bueno comprobar que la estructura de factores sigue siendo la misma cuando se considera solo la mitad de los elementos (después de todo, también podría afectar la forma en que los selecciona). Esto se puede hacer usando técnicas tradicionales de FA. Usted tiene la responsabilidad de interpretar la escala en un espíritu similar al de los autores.
Acerca de la confiabilidad de los puntajes : aunque es una medida dependiente de la muestra, la confiabilidad de los puntajes disminuye al disminuir el número de ítems (ver fórmula de Spearman-Brown ); Otra forma de ver eso es que el error estándar de medición (SEM) aumentará, pero vea Un módulo de instrucción de NCME sobre error estándar de medición , por Leo M Harvill. No es necesario decir que se aplica a todos los indicadores que dependen del número de elementos (por ejemplo, el alfa de Cronbach que se puede usar para estimar una forma de confiabilidad, a saber, la consistencia interna). Con suerte, esto no afectará ninguna comparación entre grupos basada en puntajes brutos.
Entonces, mis recomendaciones (la forma más fácil) serían:
- Seleccione sus artículos para maximizar la cobertura de construcción; verifique la dimensionalidad con FA y la cobertura con distribuciones de respuestas univariadas;
- Comparar las correlaciones promedio entre elementos con las reportadas previamente
- Calcule la consistencia interna para la escala completa y sus compuestos; verificar que estén de acuerdo con las estadísticas publicadas en la escala original (no es necesario probar nada, estas son medidas dependientes de la muestra);
- Pruebe las correlaciones lineales (o policóricas o de rango) entre los puntajes (sub) originales y reducidos, para asegurarse de que sean comparables (es decir, que las ubicaciones individuales en el rasgo latente no varíen en gran medida, como se objetiva a través de los puntajes brutos );
- Si tiene una variable externa específica del sujeto (p. Ej., Sexo, edad o, lo mejor, una medida relacionada con la moral), compare la validez del grupo conocido entre las dos formas.
La forma difícil sería confiar en la Teoría de respuesta a ítems para seleccionar aquellos ítems que contienen la mayor cantidad de información sobre la reducción de la escala de rasgos latentes, en realidad es una de sus mejores aplicaciones. Los modelos para artículos politómicos se describieron en parte en este hilo, Validando cuestionarios .
Actualiza después de tu segunda actualización
- Olvídate de cualquier modelo IRT para artículos politómicos con tan pocos temas.
- El análisis factorial también sufrirá un tamaño de muestra tan bajo; obtendrá estimaciones de carga de factor poco confiables.
- 30 ítems divididos entre 2 = 15 ítems (es fácil tener una idea del aumento en el SEM correspondiente para el puntaje total), pero definitivamente empeorará si considera las subescalas (esta fue en realidad mi segunda pregunta - No. Ítems por subescala, si la hay)