Según Fritz, Morris y Richler (2011; ver más abajo), puede calcularse como un tamaño del efecto para la prueba U de Mann-Whitney utilizando la fórmula r = z Esto es conveniente para mí, ya queinformotambién en otras ocasiones. Me gustaría informar el intervalo de confianza pararademás de la medida del tamaño del efecto.
Aquí están mis preguntas :
- ¿Puedo calcular los intervalos de confianza para r como para r de Pearson, aunque se usa como una medida del tamaño del efecto para una prueba no paramétrica?
- ¿Qué intervalos de confianza deben informarse para las pruebas de una o dos colas?
Editar respecto a la segunda pregunta: "¿Qué intervalos de confianza se deben informar para las pruebas de una o dos colas?"
Encontré más información que en mi humilde opinión puede responder a esta pregunta. "Mientras que los límites de confianza de dos lados forman un intervalo de confianza, sus contrapartes de un solo lado se denominan límites de confianza inferiores o superiores". ( http://en.wikipedia.org/wiki/Confidence_interval ). A partir de esta información, concluyo que no es el problema principal si la prueba de significación (por ejemplo, prueba ) fue de una o dos colas, sino qué información le interesa a uno con respecto al IC para el tamaño del efecto. Mi conclusión (corríjame si no está de acuerdo):
- CI de dos lados interesado en la parte superior los límites e inferior (como consecuencia, es posible que un IC de dos lados implique 0, aunque la prueba de significación de una cola fue p <.05, especialmente en el caso de que el valor fuera cercano a. 05.)
- "CI" unilateral solo interesado en el límite superior o inferior (debido al razonamiento teórico); sin embargo, esta no es necesariamente la principal pregunta de interés después de probar una hipótesis dirigida. Un CI de dos lados es perfectamente apropiado si el foco está en el rango posible de un tamaño de efecto. ¿Derecho?
Vea a continuación el pasaje de texto de Fritz, Morris y Richler (2011) sobre la estimación de los tamaños del efecto para la prueba de Mann-Whitney del artículo al que me refiero anteriormente.
"La mayoría de las estimaciones del tamaño del efecto que hemos descrito aquí suponen que los datos tienen una distribución normal. Sin embargo, algunos datos no cumplen con los requisitos de las pruebas paramétricas, por ejemplo, datos en una escala ordinal pero no en intervalos. Para tales datos, los investigadores generalmente recurren a pruebas estadísticas no paramétricas, como las pruebas de Mann-Whitney y Wilcoxon. La importancia de estas pruebas generalmente se evalúa a través de la aproximación de las distribuciones de las estadísticas de prueba a la distribución cuando los tamaños de muestra no son demasiado pequeños y estadísticos los paquetes, como SPSS, que ejecutan estas pruebas informan el valor z apropiado además de los valores para U o T ; zTambién se puede calcular a mano (por ejemplo, Siegel y Castellan, 1988). El valor puede usarse para calcular un tamaño de efecto, como el r propuesto por Cohen (1988); Las pautas de Cohen para r son que un efecto grande es .5, un efecto medio es .3 y un efecto pequeño es .1 (Coolican, 2009, p. 395). Es fácil calcular r , r 2 o η 2 a partir de estos valores z porque r = z y r
Estas estimaciones del tamaño del efecto permanecen independientes del tamaño de la muestra a pesar de la presencia de N en las fórmulas. Esto se debe a que z es sensible al tamaño de la muestra; dividir por una función de N elimina el efecto del tamaño de la muestra de la estimación del tamaño del efecto resultante. "(p. 12)