Prueba U de Mann-Whitney: intervalo de confianza para el tamaño del efecto


13

Según Fritz, Morris y Richler (2011; ver más abajo), puede calcularse como un tamaño del efecto para la prueba U de Mann-Whitney utilizando la fórmula r = zr Esto es conveniente para mí, ya queinformotambién en otras ocasiones. Me gustaría informar el intervalo de confianza pararademás de la medida del tamaño del efecto.

r=zN
rr

Aquí están mis preguntas :

  • ¿Puedo calcular los intervalos de confianza para r como para r de Pearson, aunque se usa como una medida del tamaño del efecto para una prueba no paramétrica?
  • ¿Qué intervalos de confianza deben informarse para las pruebas de una o dos colas?

Editar respecto a la segunda pregunta: "¿Qué intervalos de confianza se deben informar para las pruebas de una o dos colas?"

Encontré más información que en mi humilde opinión puede responder a esta pregunta. "Mientras que los límites de confianza de dos lados forman un intervalo de confianza, sus contrapartes de un solo lado se denominan límites de confianza inferiores o superiores". ( http://en.wikipedia.org/wiki/Confidence_interval ). A partir de esta información, concluyo que no es el problema principal si la prueba de significación (por ejemplo, prueba ) fue de una o dos colas, sino qué información le interesa a uno con respecto al IC para el tamaño del efecto. Mi conclusión (corríjame si no está de acuerdo):t

  • CI de dos lados interesado en la parte superior los límites e inferior (como consecuencia, es posible que un IC de dos lados implique 0, aunque la prueba de significación de una cola fue p <.05, especialmente en el caso de que el valor fuera cercano a. 05.)
  • "CI" unilateral solo interesado en el límite superior o inferior (debido al razonamiento teórico); sin embargo, esta no es necesariamente la principal pregunta de interés después de probar una hipótesis dirigida. Un CI de dos lados es perfectamente apropiado si el foco está en el rango posible de un tamaño de efecto. ¿Derecho?

Vea a continuación el pasaje de texto de Fritz, Morris y Richler (2011) sobre la estimación de los tamaños del efecto para la prueba de Mann-Whitney del artículo al que me refiero anteriormente.

"La mayoría de las estimaciones del tamaño del efecto que hemos descrito aquí suponen que los datos tienen una distribución normal. Sin embargo, algunos datos no cumplen con los requisitos de las pruebas paramétricas, por ejemplo, datos en una escala ordinal pero no en intervalos. Para tales datos, los investigadores generalmente recurren a pruebas estadísticas no paramétricas, como las pruebas de Mann-Whitney y Wilcoxon. La importancia de estas pruebas generalmente se evalúa a través de la aproximación de las distribuciones de las estadísticas de prueba a la distribución cuando los tamaños de muestra no son demasiado pequeños y estadísticos los paquetes, como SPSS, que ejecutan estas pruebas informan el valor z apropiado además de los valores para U o T ; zzzUTzTambién se puede calcular a mano (por ejemplo, Siegel y Castellan, 1988). El valor puede usarse para calcular un tamaño de efecto, como el r propuesto por Cohen (1988); Las pautas de Cohen para r son que un efecto grande es .5, un efecto medio es .3 y un efecto pequeño es .1 (Coolican, 2009, p. 395). Es fácil calcular r , r 2 o η 2 a partir de estos valores z porque r = zzrrr2η2z y r

r=zN
Estas estimaciones del tamaño del efecto permanecen independientes del tamaño de la muestra a pesar de la presencia de N en las fórmulas. Esto se debe a que z es sensible al tamaño de la muestra; dividir por una función de N elimina el efecto del tamaño de la muestra de la estimación del tamaño del efecto resultante. "(p. 12)
r2orη2=z2N

Respuestas:


9

Una opción de tamaño del efecto para la prueba U de Mann-Whitney es el tamaño del efecto del lenguaje común. Para la U de Mann-Whitney, esta es la proporción de pares de muestras que respalda una hipótesis establecida.

Una segunda opción es la correlación de rango; debido a que la correlación de rango varía de -1 a +1, tiene propiedades similares a las de Pearson r. Además, mediante la fórmula de diferencia simple, la correlación de rango es la diferencia entre el tamaño del efecto del lenguaje común y su complemento, un hecho que promueve la interpretación. Por ejemplo, si hay 100 pares de muestras, y si 70 pares de muestras respaldan la hipótesis, entonces el tamaño del efecto del lenguaje común es 70%, y la correlación de rango es r = .70 = .30 = .40. Kerby da una discusión clara del tamaño del efecto del lenguaje común y de cuatro fórmulas para calcular la correlación de rango en la revista Innovative Teaching: Kerby (2014) Innovative Teaching

Por cierto, aunque el documento no lo menciona, estoy bastante seguro de que Somers d y la correlación de rango para Mann-Whitney son equivalentes.


1
¿Te refieres a "Por ejemplo, si hay 100 pares posibles "? La prueba U de Mann-Whitney es para datos no apareados, por lo que la redacción es ambigua: es posible que desee aclarar para los lectores cuáles son los posibles pares.
gung - Restablece a Monica

1
Gracias por el comentario y la oportunidad de aclarar. Me referí a pares de muestras . Si hay 10 observaciones en la muestra experimental, y si hay 10 observaciones en la muestra de control, entonces hay 10 * 10 = 100 pares de muestras . Según Robert Grissom, el tamaño del efecto de la muestra es un estimador imparcial del tamaño del efecto de la población. Por lo tanto, si la correlación de rango es r = .40 para la muestra, este es un estimador imparcial del tamaño del efecto de la población.
DSK

Sospeché que eso era lo que querías decir, @DSK. Creo que esa explicación ayudará a las personas. Es posible que desee editar eso en su respuesta. Bienvenido a CV.
gung - Restablecer Monica

8

Su enlace me lleva a la oportunidad de comprar el artículo.

cHmiscrcorr.censC a Somers reXy correlación de rango a través de reXy=2×(C-12).


Gracias por traer esto a mi aviso (enlace). Ahora he insertado el pasaje en la prueba de Mann-Whitney en mi pregunta.
gris

Muchas gracias por su respuesta. ¿Posiblemente tenga un enlace a mano sobre cómo interpretar el índice c y la Somers 'D? Me interesaría especialmente si este último puede interpretarse como comparable a r. Tengo dos muestras y en la segunda muestra (mayor N y distribución normal) informo r. Creo que facilitaría la comparación de los resultados si las medidas utilizadas fueran similares, en la medida de lo posible, por supuesto. Es por eso que estaba interesado en la fórmula mencionada por Fritz et al. (2011) Entonces, ¿el IC para su r no se puede calcular como para el r de Pearson, supongo? ¡Muchas gracias de nuevo!
gris

No pude leer ese documento, pero creo que basar un índice en un zLa estadística puede no ser óptima. Puedes usarreXy para binario, ordinal y continuo Y. No estoy seguro de cuál es el mejor tutorial parare y C; quizás otros puedan intervenir.
Frank Harrell

Muchas gracias por su respuesta. Busqué más información sobre cómo interpretar Somer, pero hasta ahora no he tenido demasiado éxito. ¿Se puede entender d de Somer de manera similar al coeficiente de correlación de Pearson, por ejemplo, si la cuadratura produce un coeficiente de determinación? Me encantaría encontrar una medida del tamaño del efecto que se pueda interpretar de manera similar a r, si existe.
gris

Encontré algo más de información sobre la fórmula r = Z / √ (N): Rosenthal (1991) escribe que "podemos estimar útilmente un tamaño de efecto r a partir del nivel de p solo siempre que sepamos el tamaño del estudio (N). Convertimos la p obtenida a su equivalente de desviación normal estándar usando una tabla de valores Z ".
gris
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.