Intervalo de confianza para chi-cuadrado


10

Estoy tratando de encontrar una solución para comparar dos pruebas de "chi-cuadrado de bondad de ajuste". Más precisamente, quiero comparar los resultados de dos experimentos independientes. En estos experimentos, los autores utilizaron el chi-cuadrado de bondad de ajuste para comparar las conjeturas aleatorias (frecuencias esperadas) con las frecuencias observadas. Los dos experimentos obtuvieron el mismo número de participantes y los procedimientos experimentales son idénticos, solo cambiaron los estímulos. Los resultados de los dos experimentos indicaron un chi-cuadrado significativo (exp. 1: X² (18) = 45; p <.0005 y exp. 2: X² (18) = 79; p <.0001).

Ahora, lo que quiero hacer es probar si hay una diferencia entre estos dos resultados. Creo que una solución podría ser el uso de intervalos de confianza, pero no sé cómo calcular estos intervalos de confianza solo con estos resultados. ¿O tal vez una prueba para comparar el tamaño del efecto (Cohen's w)?

¿Alguien tiene una solución?

¡Muchas gracias!

FD


1
Hola florian ¿Por qué no usar una prueba de permutación en la diferencia entre los cuadrados de chi?
Tal Galili

¡Hola y gracias por tu respuesta! Simplemente porque realmente no conozco las pruebas de permutaciones. ¿Es posible hacer permutación solo con dos valores de chi-cuadrado (no tengo datos sin procesar, solo los resultados)? Gracias de nuevo :)
Florian

Respuestas:


8

¡La información muy limitada que tiene es ciertamente una restricción severa! Sin embargo, las cosas no son del todo inútiles.

Bajo los mismos supuestos que conducen a la distribución asintótica para el estadístico de prueba de la prueba de bondad de ajuste del mismo nombre, el estadístico de prueba bajo la hipótesis alternativa tiene, asintóticamente, una distribución no central χ 2 . Si suponemos que los dos estímulos son a) significativos yb) tienen el mismo efecto, las estadísticas de prueba asociadas tendrán la misma distribución asintótica no central χ 2 . Podemos usar esto para construir una prueba - básicamente, mediante la estimación del parámetro de no centralidad λ y ver si las pruebas estadísticas están lejos de las colas de la no central χ 2 ( 18 , λ )χ2χ2χ2λχ2(18 años,λ^)distribución. (Sin embargo, eso no quiere decir que esta prueba tendrá mucho poder).

Podemos estimar el parámetro de no centralidad dadas las dos estadísticas de prueba tomando su promedio y restando los grados de libertad (un estimador de métodos de momentos), dando una estimación de 44, o por máxima probabilidad:

x <- c(45, 79)
n <- 18

ll <- function(ncp, n, x) sum(dchisq(x, n, ncp, log=TRUE))
foo <- optimize(ll, c(30,60), n=n, x=x, maximum=TRUE)
> foo$maximum
[1] 43.67619

Buen acuerdo entre nuestras dos estimaciones, lo que no es sorprendente dados dos puntos de datos y los 18 grados de libertad. Ahora para calcular un valor p:

> pchisq(x, n, foo$maximum)
[1] 0.1190264 0.8798421

Por lo tanto, nuestro valor p es 0.12, no es suficiente para rechazar la hipótesis nula de que los dos estímulos son iguales.

λχ2(λ-δ,λ+δ)δ=1,2,...,15δ y vea con qué frecuencia nuestra prueba rechaza, digamos, el 90% y el 95% de nivel de confianza.

nreject05 <- nreject10 <- rep(0,16)
delta <- 0:15
lambda <- foo$maximum
for (d in delta)
{
  for (i in 1:10000)
  {
    x <- rchisq(2, n, ncp=c(lambda+d,lambda-d))
    lhat <- optimize(ll, c(5,95), n=n, x=x, maximum=TRUE)$maximum
    pval <- pchisq(min(x), n, lhat)
    nreject05[d+1] <- nreject05[d+1] + (pval < 0.05)
    nreject10[d+1] <- nreject10[d+1] + (pval < 0.10)
  }
}
preject05 <- nreject05 / 10000
preject10 <- nreject10 / 10000

plot(preject05~delta, type='l', lty=1, lwd=2,
     ylim = c(0, 0.4),
     xlab = "1/2 difference between NCPs",
     ylab = "Simulated rejection rates",
     main = "")
lines(preject10~delta, type='l', lty=2, lwd=2)
legend("topleft",legend=c(expression(paste(alpha, " = 0.05")),
                          expression(paste(alpha, " = 0.10"))),
       lty=c(1,2), lwd=2)

que da lo siguiente:

ingrese la descripción de la imagen aquí

Al observar los puntos de hipótesis nula verdaderos (valor del eje x = 0), vemos que la prueba es conservadora, ya que no parece rechazar tan a menudo como lo indicaría el nivel, pero no de manera abrumadora. Como esperábamos, no tiene mucho poder, pero es mejor que nada. Me pregunto si hay mejores pruebas, dada la cantidad muy limitada de información que tiene disponible.


Soy un novato en estas cosas, ¿podría preguntarle cómo ejecutar el script (si fue script) desde la respuesta de jbowman. En mi caso, un intento de obtener el OR del IC del 90%. Realmente agradecería que uno de ustedes me lo explique, y uso PASW17

Hola ash6. De hecho, es un script para software R (para más información: r-project.org ), no una sintaxis para PASW17. Por lo tanto, este script se puede ejecutar directamente en la consola R. Este script no calcula los intervalos de confianza, pero le da el valor p (aquí precisamente> pchisq (x, n, foo $ maximum ==> [1] valor p = 0.1190264) correspondiente a la prueba de una diferencia entre los 2 experimentos (aquí entre dos estímulos, en el caso de hipótesis alternativas), y aquí no podemos rechazar la hipótesis nula de que los dos experimentos dieron los mismos resultados.
Florian

3

Puede obtener la V de Cramer, que se puede interpretar como una correlación, convertirla en una Z de Fisher y luego el intervalo de confianza es sencillo (SE = 1 / sqrt (n-3): Z ± se * 1.96). Después de obtener los extremos del CI, puede convertirlos nuevamente a r.

¿Has considerado poner todos tus recuentos en una tabla de contingencia con una dimensión adicional del experimento?


Pensé que no era posible usar un Phi con chi-cuadrado de bondad de ajuste de Pearson (1 variable). ¡Es por eso que hablé sobre la w de Cohen, pero las fórmulas son realmente similares (phi = X² / ny w = sqrt (X² / n))! Pero si es posible calcular phi con esta prueba y aplicar la transformación r to z, ¿estaría de acuerdo en darnos una referencia para cotizar? Nos gustaría utilizar esta prueba en un artículo y pocos revisores pueden ser muy exigentes con las estadísticas. ¡Sería una gran ayuda para nosotros! Acerca de su pregunta: no tenemos datos sin procesar solo valor X², df y p de un artículo publicado. ¡Muchas gracias por tu ayuda!
Florian

Lo siento ... quería dejar la V de Cramer, no la phi. Cramer's V se puede usar como phi.
John

Y no, no tengo una cita. Si tiene un gran efecto, no importará si hay un pequeño sesgo en esta medida. Si no tiene un gran efecto, asegúrese de no hacer grandes huesos de la "importancia" de ninguna prueba.
John
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.