¿Se pueden calcular los valores p para la prueba de correlación de Pearson solo a partir del coeficiente de correlación y el tamaño de la muestra?


12

Antecedentes: leí un artículo donde los autores informan la correlación de Pearson 0.754 del tamaño de la muestra 878. El valor p resultante para la prueba de correlación es "dos estrellas" significativo (es decir, p <0.01). Sin embargo, creo que con un tamaño de muestra tan grande, el valor p correspondiente debería ser inferior a 0,001 (es decir, tres estrellas significativas).

  • ¿Se pueden calcular los valores p para esta prueba solo a partir del coeficiente de correlación de Pearson y el tamaño de la muestra?
  • En caso afirmativo, ¿cómo se puede hacer esto en R?

1
Para aquellos interesados, aquí hay una calculadora de valor p en línea que toma r y n .
Jeromy Anglim

Respuestas:


14

Sí, se puede hacer si usa la transformación de Fisher de R a Z. Otros métodos (por ejemplo, bootstrap) pueden tener algunas ventajas, pero requieren los datos originales. En R ( r es el coeficiente de correlación de la muestra, n es el número de observaciones):

z <- 0.5 * log((1+r)/(1-r))
zse <- 1/sqrt(n-3)
min(pnorm(z, sd=zse), pnorm(z, lower.tail=F, sd=zse))*2

Vea también esta publicación en mi blog .

Dicho esto, si es .01 o .001 no importa mucho. Como dijiste, esto es principalmente una función del tamaño de la muestra y ya sabes que el tamaño de la muestra es grande. La conclusión lógica es que probablemente ni siquiera necesite una prueba en absoluto (especialmente no una prueba de la llamada hipótesis 'nula' de que la correlación es 0). Con N = 878, puede confiar bastante en la precisión de la estimación y centrarse en interpretarla directamente (es decir, ¿tiene 0.75 de largo en su campo?).

Sin embargo, formalmente, cuando realiza una prueba estadística en el marco de Neyman-Pearson, debe especificar el nivel de error por adelantado. Por lo tanto, si los resultados de la prueba realmente importan y el estudio se planificó con .01 como umbral, solo tiene sentido informar p <.01 y no debería hacerlo oportunistamente p <.001 en función del valor p obtenido . Este tipo de flexibilidad no revelada es incluso una de las principales razones detrás de las críticas a las pequeñas estrellas y, más en general, de la forma en que las pruebas de significación de hipótesis nulas se practican en las ciencias sociales.

Ver también Meehl, PE (1978). Riesgos teóricos y asteriscos tabulares: Sir Karl, Sir Ronald y el lento progreso de la psicología blanda. Revista de consultoría y psicología clínica, 46 (4), 806-834. (El título contiene una referencia a estas "estrellas", pero el contenido es una discusión mucho más amplia sobre el papel de las pruebas de significación).


1
Probablemente les aconsejaría que renuncien a las pequeñas estrellas, incluso si los resultados son correctos, pero entiendo su punto.
Gala

1
Edité mi respuesta para agregar un comentario sobre este problema. Tenga en cuenta que 0.001 <0.01 por lo que los autores son formalmente "correctos" en cualquier caso, es más una cuestión de lo que implica la forma en que se informan los resultados. Creo que, a diferencia de un error absoluto que un revisor debe corregir, este problema debe dejarse a los autores para que decidan.
Gala

1
Tiene razón, pero hasta ahora nunca he visto informar p <0.01 si p es realmente menor que 0.001 (sin decir que el nivel de confianza para el artículo es 0.01). Además, en el artículo del que hablo, los autores informan 30 pruebas de correlación basadas en tamaños de muestra que varían de 837 a 886 con correlaciones que varían de 0.145 a 0.754 y todos se informan como dos estrellas significativas.
Miroslav Sabo

1
Tengo un problema para publicar mi código aquí, pero ejecuto simulaciones y el valor p de su código no es lo mismo que el valor p de cor.test.
Miroslav Sabo

44
Escribí una revisión tutorial sobre el uso de Fisher's z para correlaciones accesibles en stata-journal.com/sjpdf.html?articlenum=pr0041 . Recomendaría un mayor uso de los intervalos de confianza y calculo 0.724, 0.781 como límites del 95%. Recomendaría aún más mirar los datos y resolver una regresión.
Nick Cox

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.